![]() 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム
专利摘要:
本発明は、空間内において少なくとも1つのオブジェクトを最終位置に高精度で位置決めするための方法およびシステムに関する。オブジェクト(12)を産業用ロボット(11)によって把持公差以内で把持および保持する。前記産業用ロボット(11)の前記把持公差を補償する調整量を求める。前記オブジェクト(12)を高精度で最終姿勢に位置調整するため、該オブジェクト(12)が所定の公差以内で該最終姿勢に達するまで、以下のステップを繰り返し行う:撮像画像を光学的撮像装置(1a,1b)によって撮像するステップ。空間座標系における前記オブジェクト(12)の実際の姿勢を、前記光学的撮像装置(1a,1b)の位置(Pa,Pb)と、角度測定ユニット(4a,4b)によって検出された前記光学的撮像装置(1a,1b)のカメラ(2a,2b)の角度方向と、前記オブジェクト(12)における特徴的要素(13)の知識とから求めるステップ。前記調整量を使用して、前記産業用ロボット(11)の現在のポジショニングと、姿勢差に関連する量とから、該産業用ロボット(11)の新たな目標ポジショニングを決定するステップ。前記産業用ロボット(11)を前記新たな目標ポジショニングに位置調整するステップ。 公开号:JP2011507714A 申请号:JP2010540102 申请日:2008-12-17 公开日:2011-03-10 发明作者:ズィアクス クヌート;エービッシャー ベアート;ヴァルザー ベルント;メツラー ベルンハルト;ペターソン ボー 申请人:ライカ ジオシステムズ アクチェンゲゼルシャフトLeica Geosystems AG; IPC主号:B25J13-08
专利说明:
[0001] 本発明は、空間内において、産業用ロボットと少なくとも2つの光学的検出装置とを使用して、光学的に検出可能な既知の特徴的要素を有する少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法と、該方法を実施するのに適したシステムとに関する。このような方法およびシステムは、作業工程を実施するために空間内においてたとえば薄板または他のボディ部材等であるオブジェクトを産業用ロボットによって所定の位置および方向に高精度で設けなければならない自動製造業において、たとえば自動車産業において、組立プロセスおよび製造プロセスを行うのに使用される。] [0002] 把持装置によって把持されるオブジェクトを空間内の所定の位置および方向に位置決めするための従来技術から公知の操作システム、とりわけ、たとえば関節アームロボット等の産業用ロボットは、内部測定システムを有する。この内部測定システムは、操作システムの肢部のポジショニングを検出し、空間内における把持装置の位置および方向に関する情報を得る。ここでは、軸基準座標系と空間基準座標系とを区別すべきである。各軸基準座標系は、ロボットの1つの軸と該ロボットの瞬時のポジショニングとに関する座標系である。ロボットの個々の軸および肢部の運動連鎖とその瞬時のポジショニングとから、該運動連鎖の終端におけるロボットツールすなわち把持装置の一意の姿勢(位置および方向)が得られる。しかし、産業用ロボットの把持装置の姿勢は有利には空間基準で、いわゆるTPC(ツールセンターポイント)を使用して記述される。これは、ロボットツールの適切な位置にある仮想的な参照点である。ロボットツールがとるべき姿勢を記述するためには、空間内におけるTCPの位置と該TCPの回転とを定義する。とりわけいわゆるデナビット‐ハーテンバーグ(Denavit-Hartenberg)変換を使用して、ロボット制御部により、ロボットツールが所定の姿勢をとるように個々のロボット軸がとるべきポジショニングを計算する。TCPを有する把持装置の姿勢は有利には、ワールド座標系または空間座標系またはセル座標系を基準とする。これらの座標系はたとえば、ロボットの第1軸のベース、基底軸、基底フレームまたはロボットベースに直接的または間接的に関連づけされ、これに結合されている。このようなワールド座標系、空間座標系またはセル座標系に、他の部分座標系が関連づけられる。もちろん、このようなワールド座標系、空間座標系またはセル座標系は絶対的なグローバル系でなくてもよく、別のシステムに従属させることもできる。すなわち、処理内で上位の基準系を形成する座標系である。大抵はこのような座標系は、処理ホール、処理室または処理セルの床面に関連づけされる。] [0003] このようにして、ロボット制御部に適切な入力を行うことにより、把持装置によって把持されるオブジェクトも含めて、該把持装置を所定のポジショニングに位置調整することができる。すなわち、把持されたオブジェクトは把持装置のポジショニングの設定によって、空間内に位置決めされる。しかし、その際にはとりわけ、以下の2つの問題が生じる。] [0004] 高重量のオブジェクトを保持するように構成された従来の産業用ロボットの測定システムは、多くの製造手法で必要とされるほど正確な姿勢を把持装置がとれるほど高精度ではない。産業用ロボットの駆動装置は十分に高精度であるにもかかわらず、その測定システムの精度はそうではない。運動連鎖によって、個々の測定エレメントの測定誤差は倍増し、とりわけ関節アームロボットの角度センサである個々の測定エレメントの測定精度と、ロボット肢部の不可避の弾性とによって倍増する。] [0005] また、空間内の把持装置のポジショニングひいては該把持装置の姿勢から、該空間内のオブジェクトの姿勢が必ず得られるとは限らない。というのも、たいていは把持公差内しかオブジェクトを把持することができないからである。この把持公差はしばしば、所要の位置決め精度を大幅に超えることが多いので、把持誤差、すなわち把持装置に対するオブジェクトの相対姿勢も考慮しなければならない。こうするためには、ロボットに所属しない別個の測定システム、とりわけ非接触の光学的測定システムが使用される。このような測定システムを使用しなければ、空間内においてオブジェクトを所要の精度で所定の姿勢に位置決めすることができない。] [0006] WO2007/004983A1(Pettersson)から、とりわけプレス薄板部材または複合薄板等の被加工品の溶接接合手法が公知である。相互に接合される被加工品は産業用ロボットによって保持され、これらの被加工品を溶接接合するために、該産業用ロボットによって相互に相対的に位置決めされる。溶接接合部が形成される間、被加工品は産業用ロボットによってそれぞれの姿勢に維持され、これらの部材の相対的な姿勢が維持される。この溶接はたとえば溶接ロボットによって行われる。測定システムが被加工品の位置を測定することにより、溶接工程前に被加工品の位置決めを行うことができる。この測定はとりわけ、溶接工程中に連続的に行われる。上記の方法によって、形成するのが面倒な被加工品固有の通常の形状と、該被加工品を溶接前に固定するための被加工品リテーナとを省略することができる。産業用ロボットは、異なる形状および構成の被加工品に汎用的に使用することができる。というのも、被加工品の位置を測定システムによって検出することにより、被加工品を同定してコントロールし、部材を相互間で相対的に、高精度で位置決めできるからである。それゆえ、1つのシステムを異なる被加工品に使用することができ、被加工品リテーナを交換する必要はなくなる。開示内容によれば、上述の手法はとりわけ、薄板部材を溶接するのに適しており、とりわけ自動車工業において薄板部材を溶接するのに適している。可能な測定システムとしては、一般的に、被加工品表面で事前に定義されたポイントを測量するレーザ三角測量方式が挙げられる。このレーザ三角測量方式では、たとえば反射器が被加工品に取り付けられる。記載内容によれば、各反射器の位置を検出するためにレーザ光源と2次元検出器とを使用することができ、これによって、被加工品の位置および方向が3つのこのような点によって検出することができる。WO2007/004983A1には、測定システムの詳細な構成は記載されていない。] [0007] US5380978(Pryor)に、空間内において産業用ロボットを使用してオブジェクトの位置決めを行う手法、とりわけ薄板部材の位置決めを行う手法が記載されている。測定システムとしてとりわけ、空間内のオブジェクトの姿勢を3次元で検出するために適切なステレオベースを有する複数のカメラが使用される。このカメラは視界を動かすために旋回可能であり、特別な実施形態では、レーザ測距装置も有することができるセオドライトカメラとして構成される。ここで記載されているセオドライトは、カメラを高精度で位置調整するための調整装置として使用される。US4851905(Pryor)やUS5706408(Pryor)にも同様の測定システムが記載されている。] [0008] これらのシステムおよび手法に共通する点は、非接触の写真座標測量を使用して画像処理システムによって、オブジェクトに設けられた複数の特徴的な点の位置を求めることである。] [0009] 近距離領域においてオブジェクトの表面で非接触の写真座標測量を行うためには、種々の視点からオブジェクトを再現する画像の画像データを、該オブジェクトが測量されるオブジェクト座標系であってたとえば該オブジェクトのCADモデルの基礎をなすオブジェクト座標系に変換することにより、該オブジェクトの寸法と、画像中の別のオブジェクトに対する該オブジェクトの相対姿勢とを推定する。こうするためには、画像データをデータ処理ユニットにおいて処理する。座標計算の基礎となるのは、関与する画像の相対的なカメラ方向の検出である。] [0010] この相対的なカメラ方向の検出では、従来技術から公知であるように、1つのカメラのみを使用してオブジェクト表面の測量すべき面区分を時間的にずらして異なる複数の視点から撮像し、その後に、画像処理システムを使用して各2次元画像データを処理し、いわゆる3次元画像を形成する手段がある。ここで、この3次元画像の画像点にそれぞれ奥行情報が対応付けられ、検査すべき各画像点に、とりわけすべての画像点に、カメラおよび該カメラの視点から決定される画像座標系における3D画像座標が対応付けられる。従来技術から、複数の異なる視点から同じ場面を示す複数の2次元画像からこのような3次元画像を生成するための種々の画像処理手法が公知である。] [0011] さらに従来技術から、複数の異なる視点からカメラを使用して面区分を時間的にずらして撮像する代わりに、複数のカメラを使用して実質的に同時に撮像を行う手段も公知である。このことは、カメラを動かさずに面区分を3次元で検出できるという利点を有すると同時に、さらに、各カメラの方向の検出を省略できるという利点も有する。というのも、カメラ相互間の相対方向および間隔は固定できるからである。] [0012] 従来技術から、基本的に2つまたは3つのカメラから構成される種々の3D撮像装置が公知である。これら2つまたは3つのカメラは相互に離隔され、すなわちステレオベースを有し、相対的に固定された異なる視点から場面を撮像するように1つの共通のケーシング内に相互に固定的に結合されて収容されている。撮像される面区分は、画像の電子的処理を可能にする特徴的な画像特徴を有するとは限らないので、面区分表面にマークを設けることができる。このマークを生成するためには、たとえば光学的ラスタまたは光学的クロスマークを投影するパターン光ビーム、とりわけレーザビームを、3D撮像ユニットから面区分に投影することができる。通常はこのような3D撮像ユニットは、実質的に同時に撮像された異なる視点の複数の画像から3次元の画像を導出する画像処理装置を有する。] [0013] このような3D撮像ユニットはたとえば、正三角形に配置された3つのカメラを有し商標「Optigo」および「OptiCell」で知られている CogniTens 社の撮像システムや、ActiCM 社の「Advent」システムである。この「Advent」システムは、相互に隣接して配置された2つの高分解能CCDカメラと、撮像すべき区分にパターン光を投影するためのプロジェクタとを有する。] [0014] 測量すべき撮像画像の要素の座標を求めるためには、通常は画像内の参照マークが使用され、この参照マークを使用して本当の3D座標測定が行われる。その際には、撮像された3次元画像に関連し3D撮像ユニットを基準とする画像座標系を、オブジェクトが測量されるオブジェクト座標系であってたとえば該オブジェクトのCADモデルの基礎となるオブジェクト座標系に変換する。この変換は、オブジェクト座標系内において位置が既知である撮像された参照マークを基礎として行われる。このようにして、従来技術から公知のこのような3D撮像ユニットでは、0.5mm未満の精度が実現される。] [0015] さらに、面領域内で奥行スキャンを行って点群を生成するとりわけ3Dレーザスキャナの形態の3Dスキャンシステムが公知である。このような3Dスキャンシステムでは、レーザビームが面をロウごとに走査する直列形のシステムと、走査線が面全体に扇形に拡げられる並列型のシステムと、面領域内の多数の点を同時に走査して該面領域の奥行撮像を実施する完全並列型のシステム、いわゆるRIMまたはレンジイメージングシステムとを区別する。これらのシステムすべてに通常共通する点は、奥行走査を行うために、とりわけ面全体にわたって動かされる少なくとも1つの測距用レーザビームを使用することである。とりわけ上記のような直列形システムは広範に広まっており、たとえば商品名「Leica HDS 6000」、「Leica ScanStation 2」、「Trimble GX 3D Scanner」、「Zoller + FroehlichIMAGER5003」および「Zoller + Froehlich IMAGER 5006」で市販されている。] [0016] どの3D撮像ユニットでも、撮像を所要分解能で行うことができる撮像領域が構成タイプによって制限されることが問題になる。それゆえ、比較的大きいオブジェクトを3次元検出する際には、3D撮像ユニットの異なる複数の位置および方向から複数の個々の3次元撮像画像を形成することが不可欠である。次に、重なり合う画像領域を整合し、撮像された面区分内のマークを使用して、これら多数の比較的小さい撮像画像を組み立ててより大きな3次元全体画像を形成する。従来技術から、このような課題を解決するための種々の手法が公知である。これらの手法に共通する問題は、組み立てられてより大きな画像を構成する個々の3次元画像が重なり領域を有さなければならないことである。少なくとも1つの参照点を有する第1の面区分と、該第1の面区分から離れていて参照点を有さない第2の面区分とを結びつける別の画像が撮像されなかった場合、該第1の面区分から該第2の面区分まで3D撮像ユニットの位置を画像処理システムによって離散的に変化させることはできない。それゆえ、多数の中間撮像を実施して、相互に離れた測量すべき2つの面区分を光学的に結びつけて、一連の繋がりを持つ画像処理を行えるようにしなければならない。直接的な測定内容を含まない多数の3次元画像を撮像することにより、測定プロセス全体が緩慢になり、多くのメモリリソースおよび演算リソースが必要になる。さらに、多数の画像が組み合わされた場合、撮像において必然的に僅かな測定誤差が発生してしまう座標測量結果は測定精度に大きく影響し、とりわけ参照点の距離が大きい場合には、測定精度に大きく影響してしまう。] [0017] したがって、カメラの視界が制限されるため、オブジェクト座標系における位置が既知である参照点を多数使用することは避けられない。上記の純粋な写真測量システムの利点は、オブジェクト座標系における3D撮像ユニットの個々のカメラの絶対的な位置および方向を求めなくてもよいことである。というのも、撮像される画像点の絶対位置は、画像中の検出された参照点の位置の知識と、カメラ相互間の相対的方向の知識と、画像中の参照点に対する測量すべき点の相対位置の知識とから求められるからである。この測量すべき点の相対位置は、三角測量によって計算される。したがって測量システムを、相互間の相対姿勢が既知である画像校正されるカメラと、画像処理装置とに制限することができる。] [0018] これらのシステムすべての欠点は、カメラの視界が制限されており画像分解能が制限されているため、カメラないしは被測量オブジェクトの旋回または位置変化を行うことによって視界を動かすのを避けられないことが多いことである。このことはとりわけ、比較的大きなオブジェクトを高精度で測量しなければならない場合に当てはまる。というのも、所要精度を遵守するためには、画像分解能が制限されているためにカメラとオブジェクトとの間の距離は所定の距離を超えてはならないにもかかわらず、このようにオブジェクトに近接するとカメラの視界は該オブジェクトの一部しか捉えられないからである。それゆえ、撮像を行うごとに適切な数の参照点が、有利には少なくとも3つの参照点が視界に入るように参照点を多く使用するか、または、すでに検出されたオブジェクト点の位置を、とりわけオブジェクト表面のすでに検出されたマークを使用する必要がある。] [0019] この場合には上述のように、3D撮像ユニットの異なる位置および方向から複数の個々の3次元画像を撮像する。次に、重なり合う画像領域を整合し、撮像された面区分内のマークを使用して、このような多数の比較的小さい撮像画像をまとめて1つのより大きな3次元全体画像を形成する。このことを行うためには時間がかかり、測量すべきでないマークを使用しなければならない。] [0020] さらに従来技術から、3D撮像ユニットが産業用ロボットの頭部またはポータブル座標測定機によって支持して位置調整できる測定システムおよび手法が公知である。高度かつ高分解能の3D撮像ユニットの重量は大きく、中には10kgを超えるものもあるため、撮像精度に匹敵する所要精度を有する3D撮像ユニットの位置を正確に検出することはできない。というのも、こうするためには操作システムを定置構成にして、3D撮像ユニットの使用領域を据置システムに制限しなければならないからである。産業用ロボットの測定精度は比較的低く、高精度の3D撮像ユニットの測定精度より格段に低いため、産業用ロボットは外部参照には適していない。さらに、ポータブル座標測定機は高重量の負荷を支持するようには構成されておらず、機械的な負荷が大きい場合には、参照基準に使用できる測定結果が得られない。それゆえ、操作システムから得られる位置測定値は、3D撮像ユニットの絶対位置および/または相対位置を推定することができたとしても、撮像画像の基準参照に使用することはできず、とりわけ、繋がっていない異なる面区分の3次元撮像画像のうちで使用できない撮像画像が出てくる。] [0021] 上記の測定システムは、空間内において操作システムを使用してオブジェクトの位置を高精度で検出するのに適しており、そのために使用されているが、従来技術から公知のシステムには数多くの欠点がある。上述の測定手法は基本的に画像処理だけで行われるので、このような手法は比較的長い時間がかかり、測量しなければならない参照マークまたは補助マークを必要としない。カメラの視界は制限されているため、3D撮像ユニットはたいてい処理が行われる直ぐ近くに配置され、通常はロボットアームに配置されるか、またはオブジェクトまで僅かな距離の所に配置される。このことに関連して、処理が行われる近くにあることにより、3D撮像ユニットは、処理‐たとえば溶接‐によって発生する粒子と熱の影響とにさらされてしまう。また、処理が行われる場所に近いことにより、別の操作システムを3D撮像ユニットの操作システムに整合して、衝突を回避しなければならない。3D撮像ユニットを移動させ、この移動に伴って再参照するためには、比較的長い時間が必要となり、処理フロー全体が緩慢になってしまう。3次元画像検出を行うためには、複数のカメラの相対姿勢が必ず既知でなければならないため、これらのカメラを独立して方向づけすることは避けられない。そうしない場合には有利には、カメラを機械的に相互に結合する。3D撮像ユニットを加工が行われる場所から離れて位置決めするためには、カメラの間隔を相応に大きくして、3次元画像検出を行うのに十分なステレオベースが得られるようにしなければならないので、この場合にはカメラを機械的に結合することはできなくなる。したがって従来は、加工が行われる場所から離れて3D撮像ユニットを配置することは完全に断念されていた。それゆえ、有利には0.1mm未満の精度の高精度非接触3D測定システムを、産業用ロボットによるオブジェクトの高精度位置決めに使用するという目的と、加工に直接さらさずにフレキシブルに扱うことができとりわけ自由に位置決めできる測定システムを提供するという目的の双方の目的は、工業用途で産業用ロボットによってオブジェクトを位置決めする分野では、従来は十分に解決されなかった対立する目的であった。] [0022] それゆえ本発明の課題は、産業用ロボットを使用して少なくとも1つのオブジェクトを空間内の姿勢に高精度で位置決めするための方法および相応のシステムにおいて、フレキシビリティ、高精度および高速な処理速度を有する方法とシステムとを提供することである。] [0023] この課題は、独立請求項に記載されている構成によって解決される。従属請求項に、本発明の択一的または有利な実施形態が記載されている。] [0024] まず最初に、本発明の方法を概説し、その後に、実施例を概略的に示す図面を参照して、本発明の実施可能な有利な構成を概説する。] [0025] 空間内で少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めする方法は、産業用ロボットと、第1の光学的撮像装置と、少なくとも1つの第2の光学的撮像装置とによって実施される。第1の産業用ロボットは、設定可能なポジショニングに位置調整することができ、内部校正され、3次元空間座標系で校正され、この座標系を基準とする。3次元空間座標系で校正されて既知の第1の位置に既知の方向で位置決めされた第1の光学的撮像装置は、所定の第1の視界内で撮像するための光学的校正された第1のカメラと、該第1の視界を位置調整するために該第1のカメラを方向づけするための第1の駆動ユニットと、該3次元空間座標系で該第1の視界が検出されるようにするために該第1のカメラの角度方向を高精度で検出するための第1の角度測定ユニットであって該3次元空間座標系で校正された第1の角度測定ユニットとを有する。3次元空間座標系で校正されて既知の第2の位置に既知の方向で位置決めされた前記少なくとも1つの第2の光学的撮像装置は、所定の第2の視界内で撮像するための光学的に校正された第2のカメラと、該第2の視界を位置調整するために該第2のカメラを方向づけするための第2の駆動ユニットと、該3次元空間座標系で該第2の視界が検出されるようにするために該第2のカメラの角度方向を高精度で検出するための第2の角度測定ユニットであって該3次元空間座標系で校正された第2の角度測定ユニットとを有する。前記少なくとも2つの位置、すなわち前記第1の撮像装置および前記第2の撮像装置の位置の間隔は、視界が少なくとも部分的に重なって前記少なくとも2つの撮像装置を使用して3次元撮像を行えるように選択される。] [0026] 本発明による方法は、以下のステップを有する: 光学的に検出可能な既知の第1の特徴的要素を有する第1のオブジェクトを、第1の産業用ロボットが把持公差内で把持および保持する。] [0027] 第1の産業用ロボットに関して、把持公差を補正する第1の調整量が次のように求められる。すなわち、第1のオブジェクトが空間座標系において第1の産業用ロボットの第1のポジショニングの設定によって位置調整されるように移動するように、第1の調整量が求められる。前記第1の調整量をこのように求める際には、以下のステップを行う: カメラの視界が少なくとも部分的に重なり合うように、前記少なくとも2つのカメラをそれぞれ駆動ユニットによって、前記第1の産業用ロボットの第1の調整ポジショニングに保持された前記第1のオブジェクトの第1の特徴的要素の少なくとも一部に方向づけするステップ。] [0028] 第1の撮像画像を両カメラによって撮像するステップ。] [0029] 前記撮像装置の位置と、角度測定ユニットによって検出された前記カメラの角度方向と、前記第1の撮像画像と、前記第1のオブジェクトの前記第1の特徴的要素の知識とから、前記第1の産業用ロボットの第1の調整ポジショニングにおける該第1のオブジェクトの空間座標系での姿勢を求めるステップ。] [0030] 前記第1の産業用ロボットの第1の調整位置と、少なくとも該第1の産業用ロボットの第1の調整ポジショニングにおける第1のオブジェクトの求められた姿勢とを使用して、前記第1の調整量を求めるステップ。] [0031] 所定の公差内の第1の最終姿勢に達するまで下記のステップを繰り返し実施することにより、前記第1のオブジェクトを該第1の最終姿勢に高精度で位置調整することができる: 前記カメラによって別の第1の撮像画像を撮像するステップ。] [0032] 前記撮像装置の位置と、角度測定ユニットによって検出された前記カメラの角度方向と、前記別の第1の撮像画像と、前記第1のオブジェクトの前記第1の特徴的要素の知識とから、該第1のオブジェクトの空間座標系での実際の姿勢を求めるステップ。] [0033] 前記第1のオブジェクトの実際の姿勢と第1の最終姿勢との姿勢差を計算するステップ。] [0034] 前記調整量を使用して、前記第1の産業用ロボットの現在の位置決め状態と、前記姿勢差に関連する量とから、該産業用ロボットの新たな目標ポジショニングを計算するステップ。] [0035] 前記第1の産業用ロボットを前記新たな目標ポジショニングに調整するステップ。] [0036] 空間内において産業用ロボットにより少なくとも1つのオブジェクトを最終姿勢に高精度に位置決めするための本発明のシステムは、第1の産業用ロボットと、第1の光学的撮像装置と、少なくとも1つの第2の光学的撮像装置と、制御装置とを有する。前記第1の産業用ロボットは、所定のポジショニングに位置調整されるように校正されている。こうするためには、産業用ロボットは内部校正されており、空間座標系を基準とする。3次元空間座標系で校正されて既知の第1の位置に既知の方向で位置決めされた第1の光学的撮像装置は、所定の第1の視界内で撮像するための光学的校正された第1のカメラと、該第1の視界を位置調整するために該第1のカメラを方向づけするための第1の駆動ユニットと、該3次元空間座標系で該第1の視界が検出されるようにするために該第1のカメラの角度方向を高精度で検出するための第1の角度測定ユニットであって該3次元空間座標系で校正された第1の角度測定ユニットとを有する。3次元空間座標系で校正されて既知の第2の位置に既知の方向で位置決めされた前記少なくとも1つの第2の光学的撮像装置は、所定の第2の視界内で撮像するための光学的校正された第2のカメラと、該第2の視界を位置調整するために該第2のカメラを方向づけするための第2の駆動ユニットと、該3次元空間座標系で該第2の視界が検出されるようにするために該第2のカメラの角度方向を高精度で検出するための第2の角度測定ユニットであって該3次元空間座標系で校正された第2の角度測定ユニットとを有する。前記第1の撮像装置および前記第2の撮像装置の少なくとも2つの位置の間隔は、視界が少なくとも部分的に重なって前記少なくとも2つの撮像装置を使用して3次元撮像を行えるように選択される。前記制御装置は、画像処理を行うように構成されたデータ処理装置を有する。制御装置と、第1の産業用ロボットおよび少なくとも2つの撮像装置とは、次のようにデータ接続されている。すなわち、前記制御装置に、カメラによって撮像された撮像画像が供給され、該制御装置に、前記角度測定ユニットによって検出されたカメラの角度方向が供給され、駆動ユニットは該制御装置によって、カメラを方向づけるように駆動制御され、前記第1の産業用ロボットは、該制御装置によって設定されたポジショニングに位置調整されるようにデータ接続されている。] [0037] 前記制御装置および該制御装置のデータ処理装置は、以下のステップを信号受信、信号評価、信号計算および信号出力によって実施するように構成され、上記構成要素とデータ接続されている。] [0038] 前記制御装置に既知であり光学的に検出可能である第1の特徴的要素を有する第1のオブジェクトを、第1の産業用ロボットが把持公差内で把持および保持するステップ。] [0039] 第1の産業用ロボットに関して、把持公差を補正する第1の調整量を前記制御装置によって次のように求めるステップ、すなわち、第1のオブジェクトが空間座標系において第1の産業用ロボットのポジショニングの設定によって調整されるように位置調整するように、第1の調整量を求めるステップ。前記第1の調整量を前記制御装置によって求める際には、以下のステップを実施する: 視界が少なくとも部分的に重なり合うように、前記少なくとも2つのカメラをそれぞれ駆動ユニットによって、前記第1の産業用ロボットの第1の調整ポジショニングに保持された前記第1のオブジェクトの第1の特徴的要素の少なくとも一部に方向づけするステップ。] [0040] 第1の撮像画像をカメラによって撮像するステップ。前記撮像装置の位置と、角度測定ユニットによって検出された前記カメラの角度方向と、前記第1の撮像画像と、前記第1のオブジェクトの前記第1の特徴的要素の知識とから、前記第1の産業用ロボットの第1の調整ポジショニングにおける該第1のオブジェクトの空間座標系での姿勢を求めるステップ。] [0041] 前記第1の産業用ロボットの第1の調整ポジショニングと、少なくとも該第1の産業用ロボットの第1の調整ポジショニングにおける第1のオブジェクトの求められた姿勢とを使用して、第1の調整量を求めるステップ。] [0042] 所定の公差内で第1の最終姿勢に達するまで下記のステップを前記制御装置によって繰り返し実施することにより、前記第1のオブジェクトを該第1の最終姿勢に高精度で位置調整することができる: 前記カメラによって別の第1の撮像画像を撮像するステップ。] [0043] 前記撮像装置の位置と、角度測定ユニットによって検出された前記カメラの角度方向と、前記別の第1の撮像画像と、前記第1のオブジェクトの前記第1の特徴的要素の知識とから、該第1のオブジェクトの空間座標系での実際の姿勢を求めるステップ。] [0044] 前記第1のオブジェクトの実際の姿勢と第1の最終姿勢との姿勢差を計算するステップ。] [0045] 前記第1の調整量を使用して、前記第1の産業用ロボットの現在のポジショニングと、前記姿勢差に関連する量とから、該第1の産業用ロボットの新たな目標ポジショニングを計算するステップ。] [0046] 前記第1の産業用ロボットを前記新たな目標ポジショニングに調整するステップ。] [0047] 本発明の方法およびシステムを以下で、概略的に示された実施例に基づいて説明する。] 図面の簡単な説明 [0048] 第1のオブジェクトを位置決めするために使用され2つの撮像装置を使用する本発明の方法およびシステムを示す。 本発明の方法のフローチャートである。 第1のオブジェクトを位置決めするために使用され2つの撮像装置と発光装置とを使用する本発明の方法およびシステムを示す。 第1のオブジェクトおよび第2のオブジェクトを位置決めするために使用され2つの産業用ロボットを使用する方法およびシステムを示す。 第1のオブジェクトおよび第2のオブジェクトならびに加工ツールを位置決めするために使用され3つの産業用ロボットを使用する方法およびシステムを示す。] [0049] 図1aに、空間内において第1のオブジェクトを第1の最終姿勢に高精度で位置決めするための第1の実施形態のシステムと方法のフローとを示す。図1bに本方法のステップを示している。図1aおよび1bを一緒に説明する。] 図1a 図1b [0050] 本発明の方法は、空間内において少なくとも1つのオブジェクトを少なくとも1つの産業用ロボットによって最終姿勢に高精度で位置決めするのに使用される。この空間内の最終姿勢は、オブジェクトが高精度で、とりわけ0.5mm未満の精度で、有利には0.2mm未満の精度で、特殊な場合には0.1mm未満の精度でとらなければならない位置および方向であり、一般的には最終姿勢とは、本方法の枠内でオブジェクトがあるべき位置および方向を指す。もちろん、次にオブジェクトを、1つまたは任意の数の別の新たな最終姿勢にすることもできる。] [0051] 本方法の構成要素は、第1の産業用ロボット11と、第1の光学的撮像装置1aと、少なくとも1つの第2の光学的撮像装置1bとを含む。本方法をこのようなシステムによって実施するために、さらに制御装置9が設けられる。] [0052] 第1の産業用ロボット11は、第1のオブジェクト12を把持するように構成されている。たとえばこの産業用ロボット11は、6つの自由度で可動のグリッパ11aを備えた関節アームロボットである。グリッパ11aは空気圧グリッパとして構成されており、たとえば薄板を把持するように構成されている。また、このグリッパを機械的なグリッパとすることもでき、とりわけ鉗子把持器とすることができ、また、産業用ロボット11の可動の肢部を機械的に結合するための他のグリッパとすることもできる。産業用ロボット11に対し、グリッパ11aの目標ポジショニングを設定することにより、該グリッパ11aを所定のポジショニングに位置調整することができる。こうするために産業用ロボット11は、内部測定システム、内部制御システムおよび内部座標変換システムを有する。産業用ロボット11とは一般的に、冒頭に述べたようにオブジェクトを把持および位置決めするように構成された操作システムを指す。] [0053] 第1の光学的撮像装置1aおよび第2の光学的撮像装置1bは3次元の空間座標系で校正されており、既知の第1の位置Paないしは第2の位置Pbにそれぞれ既知の方向で位置決めされている。したがって、第1のオブジェクト12を位置決めすべき座標系においてこの位置も角度方向もそれぞれ、間接的または直接的に既知である。光学的撮像装置1aおよび1bはこの空間座標系で校正されており、各光学的撮像装置1aおよび1bはそれぞれ、所定の視界8aないしは8b内で撮像するように光学的校正されたカメラすなわち第1のカメラ2aおよび第2のカメラ2bを有し、これらを使用して、各視界8aないしは8b内で撮像画像で光学的測定を行うことができる。] [0054] 図面を簡略化するため、この実施例において同一である撮像装置1aおよび1bをまとめて説明する。ここでは、添え字「a」は第1の撮像装置1aに関連することを表し、添え字「b」は第2の撮像装置1bに関連することを示す。] [0055] カメラとは一般的に、光学的に検出可能なポイントを撮像するための電子的装置を指し、カメラ2aおよび2bはそれぞれ、このポイントを撮像するのに必要な構成を有し、とりわけ対物レンズと、とりわけCCD画像センサまたはCMOS画像センサである適切な撮像素子と、適切な電子回路とを有する。前記対物レンズは任意の対物レンズとすることができ、たとえば固定焦点対物レンズとするか、または、モータ駆動ズームおよびオートフォーカスによるズーム対物レンズまたは可変焦点対物レンズとすることができる。これらのカメラは、とりわけ光学系、画像センサまたは電子回路におけるいかなる誤差も、たとえば光学ひずみ等も考慮して補償することができるように、内部校正されている。したがって、これらのカメラは写真測量を行うのに適している。さらに、光学的撮像装置1aおよび1bはそれぞれ、各カメラ2aおよび2bの視界8aないしは8bを位置調整するように各カメラ2aおよび2bを方向づけするための少なくとも1つの駆動ユニット3aないしは3bを有する。たとえば各駆動ユニット3aないしは3bは、2つの旋回軸でカメラ2aないしは2bを旋回するための旋回ユニットを有する。1つの可能な実施例では、これら2つの旋回軸はそれぞれ、空間座標系を基準として水平方向の傾斜軸(Kippachse)HaないしはHbと、垂直方向の縦軸VaないしはVbとすることができる。しかし、この実施例は必須要件ではない。] [0056] さらに、光学的撮像装置1aおよび1bはそれぞれ、各カメラ2aおよび2bの角度方向を高精度で検出するために使用され空間座標系で校正された角度測定ユニット4aないしは4bを有し、これらの角度測定ユニット4aないしは4bにより、空間座標系で各視界8aないしは8bを検出することができる。空間座標系でカメラおよび角度測定ユニットを基準として行われる両撮像装置1aおよび1bの内部校正と、各光学的撮像装置1aないしは1bの外部参照とに基づいて、各画像点は、 1.画像センサすなわち撮像画像における該画像点の位置と、 2.各角度測定ユニット4aないしは4bによって検出された各カメラ2aないしは2bの方向と、 3.各光学的撮像装置1aないしは1bの既知の位置と、 4.各校正パラメータと から得られる、空間座標系内の直線を高精度で定義する。] [0057] 図中の実施例では、角度測定ユニット4aおよび4bはそれぞれ、空間座標系で鉛直軸VaないしはVbを中心とする水平角方向αaないしはαbを検出し、また、水平軸HaおよびHbを中心とする垂直角方向βaおよびβbも検出する。基本的に、水平方向の傾斜軸HaないしはHbと垂直方向の鉛直軸VaないしはVbとは交差する。したがって、前記少なくとも2つの撮像装置1aおよび1bはそれぞれ一種のビデオセオドライトとして構成されている。このビデオセオドライトとはここでは、セオドライトに同軸で組み込まれたカメラを備えたセオドライトを指すか、または、非同軸でとりわけセオドライトの望遠鏡に配置されたカメラを備えたセオドライトを指す。] [0058] 撮像装置1aおよび1bの位置PaおよびPbならびに外部校正パラメータは、参照される外部測定システムによって求めることができ、たとえば、空間内における撮像装置1aおよび1bの各位置を検出するレーザトラッカ14等の光学的測定システムによって求めることができる。このことを行うためには、撮像装置1aおよび1bに取り付けられるターゲットマークを使用することができる。方向の外部校正も外部測定システムによって行うことができる。さらに、空間座標系において位置が高精度で既知である参照点に、撮像装置1aおよび1bをとりわけ強制センタリングによって位置決めすることもできる。択一的に、空間内で撮像装置1aおよび1bを専用の測定システムによって参照し、校正することもできる。こうするためには、撮像装置1aおよび1bはそれぞれ、各カメラ2aないしは2bとともに各駆動ユニット3aないしは3bによって方向決めされるように構成されたレーザ測距器5aおよび5bを有する。このレーザ測距器5aおよび5bの角度方向は、空間座標系で校正された各角度測定ユニット4aないしは4bによって高精度で検出できるように構成されている。換言すると、撮像装置1aないしは1bはそれぞれビデオタキメータである。すなわち、非常に高い分解能のカメラを備えたレーザ測距器を有するセオドライトである。もちろん、カメラを方向づけし、方向を精確に検出するために、別の適切な旋回装置および測定装置を使用することができる。しかし、セオドライト、タキメータやいわゆるトータルステーションの角度測定精度は高いので、これらを使用するのが有利であることを述べておく。] [0059] 空間座標系における各撮像装置1aないしは1bの位置PaおよびPbは、レーザ測距器5aないしは5bにより、位置固定されたターゲットマークTに照準することによって求められる。択一的または付加的に、自己参照を、位置固定されたターゲットマークの撮像と画像処理とによって行われる三角測量によって行うこともできる。] [0060] 少なくとも2つの撮像装置1aおよび1bにより、少なくとも部分的に重なり合う視界8aおよび8bによって少なくとも1つのオブジェクトの3次元撮像画像が得られるように、第1の位置Paと第2の位置Pbとは離隔され、光学的撮像装置1aないしは1bは構成されている。換言するとステレオベースは、冒頭に述べたように画像点に奥行情報が対応付けられた3次元画像の撮像画像が所要の精度で得られるように決定されている。異なる視点から撮像された2つの電子的画像の奥行情報を画像処理によって得ることは、従来技術から公知であり、ここでは詳細に説明する必要はない。] [0061] 制御装置9は、画像処理のために構成されたデータ処理装置を有する。制御装置9は少なくとも、第1の産業用ロボット11と少なくとも2つの光学的撮像装置1aおよび1bとにデータ接続されている。制御装置9には、カメラ2aおよび2bによって撮像された撮像画像が供給され、ここで画像処理が行われて奥行情報が得られる。さらに制御装置9は、角度測定ユニット4aおよび4bによって検出されたカメラ2aおよび2bの角度方向も入力信号として受け取る。駆動ユニット3aおよび3bは制御装置9によって、カメラ2aおよび2bを方向づけするように駆動制御される。第1の産業用ロボット11は、制御装置9によって設定されるポジショニングに位置調整される。そのために必要なデータ接続は、電圧信号、無線信号、光学的信号または他の通信経路を使用して行うことができる。とりわけ使用される構成要素の個々の位置、方向およびサイズである参照パラメータや校正パラメータは、‐本方法を実施するのに必要である場合には‐制御装置9に記憶される。制御装置9は、たとえば適切なインタフェースを有するパーソナルコンピュータ等であるユニットや、相互に通信するかまたは相互に接続されてネットワークを構成し別個の位置に設けられた複数の個々のコンポーネントとすることができ、個々の装置の構成要素であるコンポーネントとすることができる。とりわけ、抽象的なものと見なされるこの制御装置9は、光学的撮像ユニット1aおよび1bおよび/または第1の産業用ロボット11の構成要素とすることができる。] [0062] 空間内の最終姿勢に位置決めすべき第1のオブジェクト12は、光学的に検出可能な既知の第1の特徴的要素13を有する。この第1の特徴的要素13は、撮像ユニット1aおよび1bのカメラ2aおよび2bによって検出することができる任意の特徴的要素とすることができる。「光学的に検出可能」という概念は、カメラ2aおよび2bによって検出できることを意味し、必ずしも、人間の肉眼によって見ることができることを意味するわけではない。] [0063] このような光学的に検出可能な特徴的要素は、オブジェクトの特徴によって形成することができ、とりわけオブジェクトの形状、表面プロフィールおよび表面特性によって形成することができ、たとえばオブジェクトの角、辺、穿孔、切欠およびビードによって形成することができる。択一的または付加的に、このような特徴的要素をオブジェクト表面に取り付けることもでき、たとえば接着マークまたは着色マークとして取り付けることもできる。有利にはこれらの特徴的要素は、少なくとも2次元に広がる特徴であり、たとえば一直線上にない3点として設けられる。このような特徴的要素は、該特徴的要素の位置検出によって空間内におけるオブジェクトの姿勢、すなわち位置および方向が可能な限り一義的に定義されるように設けられる。] [0064] オブジェクト12は、空間内において高精度で位置決めすべき任意のオブジェクトであって、第1の産業用ロボット11によって把持および保持することができるオブジェクトであり、たとえば薄板部材である。] [0065] 以下で、本発明の方法の流れをフローチャートで示す図1bも参照して、本発明の方法の流れを説明する。] 図1b [0066] ステップ50において、たとえば保管位置にある第1のオブジェクト12を第1の産業用ロボット11によって、該産業用ロボット11のグリッパ11aを使用して把持公差内で把持および保持する。この把持公差は、第1のオブジェクト12を最終姿勢に位置決めする際に逸脱してはならない公差を上回る。とりわけ、オブジェクトに強制センタリングしない空気圧把持器では高精度で把持することができず、グリッパに対するオブジェクトの相対姿勢は公差を有し、この公差を補償すなわち補正しなければならない。] [0067] ステップ51は、本発明の1つの実施形態で行われるオプションのステップであり、このステップでは、第1のオブジェクト12を未知の把持誤差で保持する第1の産業用ロボット11を、第1の調整量を求めるために第1の調整ポジショニングに位置調整される。第1の産業用ロボット11のこのような調整ポジショニングで、両カメラ1aおよび1bは3次元撮像を行うために第1のオブジェクト12をよく見ることができる。把持後にすでに、両カメラ1aおよび1bがこの第1のオブジェクト12をよく見ることができることが保証され、第1のオブジェクト12がすでに或る位置にある場合には、このステップ51を省略することもできる。] [0068] 次のステップ52において、この把持公差を補正するために第1の調整量を求める。第1の産業用ロボット11の把持公差を補正するためのこの第1の調整量は、該第1の産業用ロボット11のポジショニングの設定によって空間座標系内で調整されるように第1のオブジェクト12を位置調整するのに使用される。調整されるように位置調整するとは、ロボットのグリッパ11aがとるべきポジショニングが設定された場合に、この部分を把持したときの把持誤差を補正することを意味する。すなわちこの把持誤差は、補正量である第1の調整量によって考慮される。この把持誤差は全部で6つの自由度で生じる可能性があるため、調整量はとりわけテンソルの形態の適切な値をとることができる。理想的には、すなわち第1のオブジェクトをグリッパ11aが精確に把持している場合、調整量は0に等しくなる。] [0069] 第1の調整量は、以下の部分ステップによって求められる。まず、前記少なくとも2つのカメラ2a,2bがそれぞれ駆動ユニット3a,3bによって、視界8a,8bが少なくとも部分的に相互に重なり合って、第1の産業用ロボット11の第1の調整ポジショニングに保持される第1のオブジェクト12の第1の特徴的要素13の少なくとも一部に旋回される。有利には、前記第1の特徴的要素13を成す少なくとも3つの点が、前記視界8a,8bが重なり合うオーバーラップ領域内に設けられる。このようにして、前記2つのカメラ2a,2bによって第1の撮像画像が撮像される。次にこれらの撮像画像から、第1の産業用ロボット11の第1の調整ポジショニングに保持される第1のオブジェクト12の姿勢が空間座標系で求められる。3つの特徴点の位置を求めるだけで、この姿勢を求めることができる。第1のオブジェクト12の姿勢は、撮像装置1a,1bの位置Pa,Pbの知識と、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向と、第1の撮像画像とから求められる。これらの情報だけですでに、写真測量で、とりわけ制御装置9での画像処理により、個々の検出された点の位置を空間座標系で求めることができる。これからオブジェクトの姿勢を導出するためにはさらに、第1のオブジェクト12における第1の特徴的要素13の知識が必要である。第1の特徴的要素13の位置または姿勢から、空間内における第1のオブジェクトの姿勢を推定することができる。たとえば電子的モデルから、薄板部材が特別な穿孔を有することと、該薄板部材がどの場所に特別な穿孔を有するかが既知である場合、これらの穿孔の姿勢からオブジェクトの姿勢を推定することができる。このようにして、把持に誤差が無い理想的な姿勢を得るための第1の産業用ロボット11の第1の調整ポジショニングと、少なくとも、第1の産業用ロボット11の第1の調整ポジショニングにおける第1のオブジェクト12の検出された姿勢すなわち実際の姿勢とから、第1の調整量が求められる。] [0070] 本発明の1つの実施形態では、オブジェクト11の特徴的要素13は基本的に、制御装置9の電子的データ処理装置によって処理可能なモデルから既知である。このモデルは、CADによって得られる電子的モデルとすることができる。電子的データ処理装置上で実施される画像処理によって、モデルおよび/または撮像画像で特徴的要素13を同定し、モデルのこれらの特徴的要素13と、撮像画像の特徴的要素13とを相互に対応付ける。空間座標系におけるオブジェクト12の姿勢は、空間座標系における撮像された特徴的要素13の検出された位置と、対応付けられた特徴的要素13とから求められる。 このような画像処理手法および特徴同定手法は従来技術から公知であり、ここでは詳細に説明する必要はない。] [0071] このようにして、第1のオブジェクト12を把持した際に適切な第1の調整量を求めた際の把持誤差は既知となるので、該第1のオブジェクト12を第1の産業用ロボット11によって該第1の産業用ロボット11のセンサの測定精度で位置決めすることができる。しかし、この測定精度は十分でないので、解決しなければならない別の位置決め問題が生じる。] [0072] たとえば、製造公差および周辺パラメータに起因して、たとえば薄板部材等である第1のオブジェクト11自体に特定の寸法公差および形状公差が生じる可能性がある。この特定の寸法公差および形状公差は考慮しなければならない。それゆえ、本発明の1つの実施形態では、第1のオブジェクトのばらつきを考慮する。] [0073] 本発明の1つの実施形態では、オプションのステップ53では、撮像された特徴的要素13の相互間の相対姿勢を求め、上記のモデルから基本的に既知である該特徴的要素の相互間の相対姿勢と比較する。本発明の1つの実施形態では、撮像された特徴的要素13の相対姿勢と、モデルから基本的に既知である特徴的要素の相対姿勢との偏差の超過時には、エラーメッセージを出力する。本発明の1つの実施形態では、エラーメッセージの場合、オブジェクト12を新たなオブジェクト12に交換し、次に、図1bに一例として示したようにステップ50を実施する。択一的に、モデルを検出されたオブジェクト12に適合する。このようにして、たとえばCADによって得られたモデルを、把持されているオブジェクト12の実際の寸法に適合することができる。この場合、このような適合されたモデルは空間座標系で、オブジェクト12がとるべき最終姿勢を決定する。この最終姿勢がたとえばオブジェクト12の一部分によって決定される場合、とりわけ最終姿勢がとるべき辺によって決定される場合、この部分の変形がモデルの適合によって相応に考慮される。] 図1b [0074] ステップ54もオプションであり、このステップ54において第1の調整量を考慮して第1の産業用ロボット11を第1の調整ポジショニングから、該第1のオブジェクト12が前記第1の最終姿勢に近づく第1の近似姿勢に位置決めされる位置へ位置調整する。第1の産業用ロボット11のこのような位置調整を行うためには、第1の調整ポジショニングが設定されていた第1の産業用ロボットに対し、第1のオブジェクト12が第1の近似姿勢にある新たなポジショニングを入力量として設定する。前記2つのカメラ2a,2bがそれぞれ駆動ユニット3a,3bによって、視界8a,8bが少なくとも部分的に相互に重なり合って、第1の近似姿勢に位置決めされている第1のオブジェクト12の第1の特徴的要素13の少なくとも一部に向かって方向決めされる。] [0075] ステップ55において、第1のオブジェクト12を第1の最終姿勢に高精度で位置調整する。こうするためには、所定の公差以内の第1の最終姿勢に達するまで、以下のステップを繰り返す。まず、さらなる第1の撮像画像をカメラ2aおよび2bによって撮像する。空間座標系における第1のオブジェクト12の実際の姿勢を再度、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向と、前記更なる第1の撮像画像と、該第1のオブジェクト12における前記第1の特徴的要素13の知識とから求める。次に、この実際の姿勢を目標姿勢と比較する。すなわち、第1の最終姿勢と比較する。前記第1のオブジェクト12の実際の姿勢と第1の最終姿勢との姿勢差を計算する。次に、第1の産業用ロボット11の新たな目標ポジショニングを計算する。この新たな目標ポジショニングの計算を行うためには、前記第1の産業用ロボット11の現在のポジショニングから得られる第1の調整量と、前記姿勢差に関連する量とを考慮する。前記姿勢差に関連する量は有利には、1以下の係数が乗算された姿勢差である。すなわち前記新たな目標ポジショニングは、第1のオブジェクト12が実際の姿勢と第1の最終姿勢との間の姿勢になるポジショニングである。前記係数が1に等しい場合、前記新たな目標ポジショニングは、第1のオブジェクト12が実際の姿勢から、第1の産業用ロボット11の比較的低精度のセンサ系およびアクチュエータ系で実現できる限りの近似度で前記第1の最終姿勢に近づけられるポジショニングである。しかし、この新たな目標位置決め状態は通常は、第1のオブジェクト12を1ステップ55だけで所定の公差以内で第1の最終姿勢にするには低精度すぎるので、前記係数は有利には1未満でありかつ0を上回り、有利には0.95未満であり、とりわけ0.9未満であり、たとえば0.8未満である。1未満でありかつ0を上回る係数によって、産業用ロボット11の新たな目標ポジショニングは、該産業用ロボット11が該新たな目標ポジショニングに位置調整された後に第1のオブジェクト12が前記第1の最終姿勢に近づくが完全には達しないようになる。] [0076] 次に、前記第1の産業用ロボット11を前記新たな目標ポジショニングの設定によって位置調整する。換言すると、第1の産業用ロボットが新たな位置入力量を受け取り、これによって該第1の産業用ロボットは新たな目標ポジショニングにされる。このようにして、第1の産業用ロボット11のセンサ系およびアクチュエータ系によってこの新たな目標ポジショニングに近づける。次に、上記ステップを繰り返す。すなわち、再びさらなる第1の撮像画像をカメラ2aおよび2bによって撮像し、該さらなる第1の撮像画像に基づいて前記第1のオブジェクト12の実際の姿勢を求め、該第1のオブジェクト12の実際の姿勢と前記第1の最終姿勢との姿勢差を計算する。第1のオブジェクトが未だ、前記第1の最終姿勢の所要公差以内にない場合、前記第1の産業用ロボット11に再び、該第1の産業用ロボットの現在のポジショニングと前記姿勢差に関連する量とから第1の調整量を考慮して計算される新たな目標ポジショニングを設定する。前記ステップは、第1のオブジェクト12が公差以内で高精度で第1の最終姿勢に達するまで繰り返される。] [0077] 上記方法の重要な利点は、前記オブジェクトの特徴的要素の他に別の参照マークを示す必要がない撮像画像の数を非常に少なくして、空間内におけるオブジェクトの姿勢を検出できることである。このことにより、本方法を格段に迅速化することができる。カメラの視界を位置調整すると、再参照することなく、写真測量による画像評価を行うことができる。このことはとりわけ、オブジェクトを比較的大きな区間で操作システムによって動かして高精度で位置決めするために産業用に使用する際に重要である。というのも、カメラをオブジェクトの特徴的要素に向かって旋回させることで視界を変化する際に、再参照する必要も、予め測定された画像および/または参照マークを使用する必要もないからである。このようにして、位置決めを迅速、高精度かつ高いプロセス信頼性で行えることが保証される。カメラの旋回で、再参照することや連係方向決めによる時間損失が生じることがなくなるので、処理が行われる場所から撮像装置を離隔して、とりわけ2〜5m離隔して配置することができ、処理を妨害することがなくなり、測定技術装置が処理に直接さらされることがなくなる。このことは、とりわけ溶接手法で有利である。というのも、高感度の測定技術装置が妨害されることがほとんどなくなるからである。] [0078] もちろん、位置検出精度を上昇させるためにさらに別の撮像装置を使用することができる。この場合、たとえば3つのカメラの3つの視界が相互に重なり合う。] [0079] 1つの実施例では少なくとも2つの撮像装置1a,1bは次のように、すなわち、水平方向の傾斜軸HaないしはHbと垂直方向の鉛直軸VaないしはVbとは実質的に交差し、カメラ2aないしは2bの投影中心はそれぞれ、該水平方向の傾斜軸HaないしはHbと該垂直方向の鉛直軸Va,Vbとの交点に位置するように構成されている。このようにして、カメラ2aないしは2bの位置はそれぞれ角度方向αa,βaないしはαb,βbに依存せずに、撮像装置1aないしは1bの位置PaないしはPbに結合される。換言するとこの場合には、カメラ2aないしは2bの光学軸はどの方向でも、水平方向の傾斜軸HaないしはHbと垂直方向の鉛直軸VaないしはVbとの交点と交差する。このようにして空間座標系における姿勢は、カメラ2a,2bの位置と、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向αa,βa;αb,βbと、撮像画像と、特徴的要素13の知識とから求められる。] [0080] 別の実施例では、少なくとも2つの撮像装置1a,1bはそれぞれ、カメラ2aないしは2bの投影中心がそれぞれ、水平方向の傾斜軸HaないしはHbと垂直方向の鉛直軸VaないしはVbとの交点の外に位置するように構成される。換言すると、カメラ2aないしは2bの光学軸は両軸の交点と交差しない。カメラ2a,2bの位置はそれぞれ、前記交点からのカメラ2aないしは2bの投影中心の所定の偏心率と、撮像装置1a,1bの角度方向αa,βa;αb,βbおよび位置Pa,Pbとから決定される。その際には空間座標系における姿勢は、撮像装置1a,1bの位置Pa,Pbと、カメラ2a,2bの投影中心の偏心率と、角度測定ユニット4a,4bによって検出された該カメラ2a,2bの角度方向と、撮像画像と、特徴的要素12の知識とから求められる。] [0081] 図2に本発明の1つの実施形態を示す。この実施形態では、図1aに示した実施例のすでに説明した特徴は再度説明しない。] 図1a 図2 [0082] 図2の実施例では撮像装置1aは、第1のカメラ2aの第1の視界8a内で第1のパターン光7aを放出するために構成された第1の発光源6aを有する。第1の駆動ユニット3aによって前記第1の発光源6aは第1のカメラ2aと一緒に方向決めできるように構成されている。この角度方向は、空間座標系で校正された第1の角度測定ユニット4aによって高精度で検出することができる。撮像画像を撮像する上述のステップでは、第1のパターン光7aが第2の撮像装置1bの第2のカメラ2bの視界内に入るように、該第1のパターン光7aを前記第1の発光源6aからオブジェクト12に投射する。空間座標系におけるオブジェクト12の姿勢はさらに、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出された第1の発光源6aおよび第2のカメラ2bの角度方向と、該第1のパターン光7aを撮った該第2のカメラ2bの撮像画像とから、三角測量によって求められる。このようにして位置検出精度を上昇させることができる。また、光学的に検出可能なマークを有さないオブジェクトの区分でも測定を行うこともできる。] 図2 [0083] 第2の撮像装置1bも、第2のカメラ2bの第2の視界8b内で第2のパターン光7bを放出するように構成された発光源、すなわち第2の発光源6bを有する。この発光源6bは第2の駆動ユニット3bによって、第2のカメラ2bと一緒に方向決めすることができる。第2の発光源6bの角度方向は、空間座標系で校正された第2の角度測定ユニット4bによって高精度で検出することができる。撮像画像を撮像する上述のステップでは、第2のパターン光7bが第1の撮像装置1aの第1のカメラ2aの視界内に入るように、該第2のパターン光7bを第2の発光源6bから、オブジェクト12の特徴的要素13の少なくとも一部分に投射する。さらに、空間座標系におけるオブジェクト12の姿勢は、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出された第2の発光源6bと第1のカメラ2aの角度方向と、第2のパターン光7bを撮った該第1のカメラ2aの撮像画像と、オブジェクト12に設けられた特徴的要素13の知識とから、三角測量によって求められる。] [0084] さらに、既知の第3の位置Pcに既知の方向で、第3の発光源6cを有する発光装置1cが配置されている。この第3の発光源6cは第3のパターン光7cを放出するように構成され、第3の駆動ユニット3cによって方向決めすることができる。第3の発光源6cの角度方向は、空間座標系で校正された第3の角度測定ユニット4cによって高精度で検出することができる。撮像画像を撮像する上述のステップでは、第3のパターン光7cが第1の撮像装置1aの第1のカメラ2aおよび/または第2のカメラ2bの視界内に入るように、該第3のパターン光7cを前記第3の発光体6cからオブジェクト12に投射する。さらに、空間座標系におけるオブジェクト12の姿勢は、第1の撮像装置1aの位置Paと、第1の角度測定ユニット4aによって検出された第1のカメラ2aの角度方向と、第3の角度測定ユニット4cによって検出された第3の発光源6cの角度方向と、第3のパターン光7cを撮った第1のカメラ2aの撮像画像とから、三角測量によって求められる。前記発光装置1cを使用する利点は、適切な位置決めによって、とりわけ側方にずらして位置決めを行うことにより、オブジェクトの姿勢を求める際の精度をさらに上昇できる有利な三角測量ベースを実現できることである。] [0085] 1つまたは複数の撮像装置に発光ユニットを設けることができる。各パターン光7a,7b,7cはたとえば投影レーザ線であるか、またはレーザ線の形態で扇形に投影されるレーザ点であるか、または2次元で投影されるパターンであり、とりわけレーザラスタである。] [0086] 図2の実施例ではさらに、両撮像装置1aおよび1bはレーザ測距装置5aないしは5bを有し、これらのレーザ測距装置5aないしは5bは第1のカメラ2aないしは2bとともに、各駆動ユニット3aないしは3bによって方向決め可能であり、該レーザ測距装置5aないしは5bの角度方向は、空間座標系で校正された角度測定ユニット4aないしは4bによって高精度で検出することができる。また、これらのレーザ測距装置5aないしは5bはさらに、オブジェクト12にある特徴的要素13に照準されることにより、空間座標系における該オブジェクト12の姿勢を高精度で求めるためにも使用される。また、固定位置にあるターゲットマークTに照準することにより、空間座標系における撮像装置1aの位置PaおよびPbをレーザ測距装置5aおよび/または5bによって求めることもできる。択一的に、レーザ測距装置5aないしは5bをレーザスキャナとして構成することもできる。このレーザスキャナはとりわけ、各カメラの視界全体にわたって測定を行うレーザスキャナである。すなわち、各カメラに対するレーザ測距装置5aないしは5bの相対方向を測定できるように、該レーザ測距装置5aないしは5bをさらにカメラに対して方向決めできるようにすることもできる。このことにより、各カメラに対して測定可能であるように測定ビームを方向決めすることができる。] 図2 [0087] 上述の位置決め方法は、空間内における1つの第1のオブジェクトの自由な位置決めに関して説明したが、上述の方法および構成要素を使用して少なくとも1つの第2のオブジェクトを位置決めすること、および/または、該第2のオブジェクトに対して第1のオブジェクトを高精度で方向決めすること、該第1のオブジェクトに対して該第2のオブジェクトを高精度で方向決めすることもできる。以下でこのような方法を説明する。また、上述の構成を第2のオブジェクトおよび任意の他のオブジェクトの位置決めと組み合わせることもできる。しかし図面を簡略化するために、第1のオブジェクトを位置決めする際に実施可能な実施例を、別のオブジェクトの位置決めに関しても説明するのを省略する。このような組み合わせもまた、本発明に含まれる。] [0088] 図3にこのような実施例を示している。図1aに示した実施形態の重要な構成要素に関して図3では再度言及しないが、これらの図1a中の構成要素の他に、第2の産業用ロボット21とオブジェクトホルダ24とが設けられる。上述のように、第1のオブジェクト12を第1の最終姿勢に高精度で位置調整する前に、第2のオブジェクト22を第2の産業用ロボット21によって把持し、オブジェクトホルダ24に配置する。このオブジェクトホルダ24は、第2のオブジェクト22を保持することができるいわゆる「固定具」として形成されている。こうするためには、オブジェクトホルダ24が適切な形状を‐たとえばオブジェクトの変形を回避するために適切な形状を‐有すること、および/または、オブジェクトを固定するための適切なクランピング装置を有することができる。オブジェクトホルダ24に配置されると、第2のオブジェクト22は空間座標系において第2の最終姿勢になる。択一的に、第2のオブジェクトを第2の産業用ロボット21によって配置するのではなく、手動でオブジェクトホルダ24に配置することもできる。1つの実施例ではオブジェクトホルダ24は、第2のオブジェクト22が所定の第2の最終姿勢に高精度で配置されるように強制センタリングを行うように構成されている。この場合には、第2の最終姿勢を測定技術によって測定するのを省略することができる。しかしそうでない場合には、空間座標系における第2の最終姿勢が求められる。こうするために第2のオブジェクト22は、光学的に検出可能な既知の第2の特徴的要素23を有する。第2のオブジェクト22がオブジェクトホルダ24に配置された後、まず最初に、視界8a,8bが少なくとも部分的に重なり合うように前記少なくとも2つのカメラ2a,2bをそれぞれ駆動ユニット3a,3bによって該第2のオブジェクト22の第2の特徴的要素23の少なくとも一部分に向かって方向決めすることにより、空間座標系における該第2のオブジェクト22の第2の最終姿勢を求める。第2の撮像画像を撮像する。空間座標系における第2のオブジェクト22の第2の姿勢を、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向と、前記第2の撮像画像と、前記第2のオブジェクト22における前記第2の特徴的要素23の知識とから求める。] 図1a 図3 [0089] 択一的に、第1のオブジェクト12を第1の最終姿勢Eaに高精度で位置調整する前に、第2のオブジェクト22を第2の産業用ロボット21によって、把持公差以内で把持する。その際には、第2のオブジェクト22をオブジェクトホルダ24に置くのではなく保持する。第2の産業用ロボット21を、第2のオブジェクト22が第2の最終姿勢になる該第2の産業用ロボット21の最終ポジショニングに位置調整する。第2のオブジェクト22の第2の最終姿勢は、空間座標系において以下のステップによって求められる: 視界8a,8bが少なくとも部分的に重なり合うように前記少なくとも2つのカメラ2a,2bをそれぞれ駆動ユニット3a,3bによって第2のオブジェクト22の第2の特徴的要素23の少なくとも一部に向けて方向決めするステップ。 第2の撮像画像を撮像するステップ。 空間座標系における前記第2のオブジェクト22の第2の最終姿勢を、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向と、前記第2の撮像画像と、該第2のオブジェクト22の第2の特徴的要素23の知識とから求めるステップ。] [0090] 図3の実施例では第1のオブジェクト12の第1の最終姿勢は、第2のオブジェクト22の第2の最終姿勢と、該第1のオブジェクト12と該第2のオブジェクト22との所定の相対姿勢とから計算される。第1のオブジェクト12は第2のオブジェクト22に対して相対的に高精度で位置決めされているので、ここでたとえば、両オブジェクトを高精度で接合するための接合手法を実施することができる。] 図3 [0091] 図4に本発明の別の実施形態を示す。この実施形態では、第2のオブジェクト22と、加工ツールとして構成された第3のオブジェクト32とを高精度で位置調整する。] 図4 [0092] 光学的に検出可能な既知の特徴的要素23を有する第2のオブジェクト22は、第2の産業用ロボット21によって把持公差以内で把持されて保持される。第2の産業用ロボット21に対してこの把持公差を補正する第2の調整量を求め、第2のオブジェクト22が空間座標系において、該第2の産業用ロボット21のポジショニングの設定によって調整されるように位置調整する。第2の調整量を求めるためには、視界が少なくとも部分的に重なり合うように2つのカメラ2a,2bをそれぞれ駆動ユニット3a,3bによって、第2の産業用ロボット21の第2の調整ポジショニングに保持される第2のオブジェクト22の第2の特徴的要素23の少なくとも一部分に向けて方向決めする。第2の撮像画像を撮像する。第2の産業用ロボット21の第2の調整ポジショニングにある場合の空間座標系内での第2のオブジェクト22の姿勢を、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向と、前記第2の撮像画像と、前記第2のオブジェクト22における前記第2の特徴的要素23の知識とから求める。第2の調整量は、第2の産業用ロボット21の第2の調整ポジショニングと、少なくとも、該第2の産業用ロボット21の第2の調整ポジショニングにおける第2のオブジェクト22の求められた姿勢とを使用して求められる。次に、第2のオブジェクト22を第2の最終姿勢に高精度で位置調整する。このことを行うためには、所定の公差以内で第2の最終姿勢に達するまで繰り返される以下のステップを使用する。まず、さらなる第2の撮像画像を撮像する。空間座標系における第2のオブジェクト22の実際の姿勢を、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向と、前記さらなる第2の撮像画像と、前記第2のオブジェクト22における前記第2の特徴的要素23の知識とから求める。前記第2のオブジェクト22の実際の姿勢と第2の最終姿勢との姿勢差を計算する。第2の調整量を考慮して第2の産業用ロボット21の現在のポジショニングと前記姿勢差に関連する量とから第2の産業用ロボット21の新たな目標ポジショニングを計算した後、該第2の産業用ロボット21をこの新たな目標ポジショニングに位置調整する。第2のオブジェクト22が所定の公差以内で第2の最終姿勢に達するまで、前記ステップを繰り返す。] [0093] 図4のこの実施形態では、図3に示した両オブジェクト12および22を相対的に位置決めする代わりに、両オブジェクト12および22を相互に独立して高精度で個別に位置決めする。] 図3 図4 [0094] 本発明の1つの実施形態では、第2のオブジェクト22が把持された後、第2の調整量を求めるために、第2の産業用ロボット21を該第2の産業用ロボット21の第2の調整ポジショニングに位置調整する。] [0095] 本発明の別の実施例では、所定の公差以内で第2の最終姿勢に達するまで繰り返される前記ステップを実施する前に、第2の調整量を考慮して第2の産業用ロボット21を第2の調整ポジショニングから、前記第2のオブジェクト22が該第2の最終姿勢に近づく第2の近似姿勢に位置決めされるポジショニングに位置調整する。次に、前記2つのカメラ2a,2bがそれぞれ駆動ユニット3a,3bによって、視界8a,8bが少なくとも部分的に相互に重なり合うように、第2の近似姿勢に位置決めされている第2のオブジェクト22の第2の特徴的要素23の少なくとも一部に向かって方向決めされる。] [0096] また図4に示されているように、加工ツールとして構成された第3のオブジェクト32が設けられている。この第3のオブジェクト32は、図3の実施形態でも使用することができる。加工ツール32は、第3の産業用ロボット31によって保持公差以内で保持される。加工ツール32、または該加工ツール32に結合された第3の産業用ロボット31の部分に、たとえば該加工ツール32のリテーナに、光学的に検出可能な既知の第3の特徴的要素33を有する。空間座標系において第3の産業用ロボット31の位置決め状態の設定によって加工ツール32を調整されるように位置調整できるようにするためには、第3の産業用ロボット31に対して、前記保持公差を補正する第3の調整量を決定する。こうするためにはまず、視界8a,8bが少なくとも部分的に相互に重なり合うように、駆動ユニット3aおよび3bによって前記2つのカメラ2aおよび2bをそれぞれ第3の特徴的要素33の少なくとも一部分に向けて方向づけする。加工ツール32はここでは、第3の産業用ロボット31の第3の調整ポジショニングで保持される。第3の撮像画像を撮像する。第3の産業用ロボット31の第3の調整ポジショニングにおける空間座標系での加工ツール32の姿勢を、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向と、前記第3の撮像画像と、前記第3の特徴的要素33の知識とから求める。第3の調整量は、第3の産業用ロボット31の第3の調整ポジショニングと、少なくとも、該第3の産業用ロボット31の第3の調整ポジショニングにおける加工ツール32の求められた姿勢とを使用して求められる。] 図3 図4 [0097] さらに本発明では、所定の公差以内で第3の最終姿勢に達するまで以下のステップを繰り返し実施することにより、加工ツール32を第3の最終姿勢に高精度で位置調整する。さらなる第3の撮像画像を撮像する。空間座標系における加工ツール32の実際の姿勢を、撮像装置1a,1bの位置Pa,Pbと、角度測定ユニット4a,4bによって検出されたカメラ2a,2bの角度方向と、前記さらなる第3の撮像画像と、前記第3の特徴的要素33の知識とから求める。前記第3のオブジェクト32の実際の姿勢と第3の最終姿勢との姿勢差を計算する。第3の産業用ロボット31の新たな目標ポジショニングが、前記第3の調整量を考慮して、第3の産業用ロボット21の現在のポジショニングと、前記姿勢差に関連する量とから計算される。次に、第3の産業用ロボット31を前記新たな目標ポジショニングに位置調整する。前記加工ツール32が第3の最終姿勢の公差領域内になるまで、前記ステップを繰り返す。] [0098] 前記加工ツール32はたとえば、第1のオブジェクト12と第2のオブジェクト22とを溶接接合するための溶接工具である。また、任意の別の加工ツールも使用することができ、とりわけ接合工具を使用することもできる。ここでは、加工ツール32を第1のオブジェクト12および第2のオブジェクト22と関連づけて説明し、とりわけこれらのオブジェクトの接合について説明したが、本発明は、1つのオブジェクトのみに対して行われる加工ツールの相対的な位置決めも含む。このことはたとえば、1つのオブジェクトにのみ作業工程を実施する加工ツール、たとえば切削製造工程を実施する加工ツールに当てはまる。] [0099] 本発明はまた、明示的には組み合わされていない特徴の組合せも含む。] [0100] 上記のシステム構成要素、とりわけ撮像装置等の測定用構成要素は、移動性およびフレキシビリティを特徴とする。それゆえ、比較的短時間の間に製造システムに設置できる独立した構成要素によって上記の方法を実施することができる。自己校正および自己参照を行う構成要素により、困難な動作条件でも十分なプロセス信頼性を保証することができる。上記のように調整量を求めて、前記最終姿勢に達するまでステップを繰り返すことにより、比較的低精度の測定システムを有する比較的低精度の操作システムもオブジェクトの高精度の位置決めに使用することができる。本発明により、処理に直接関与することなく、非接触で十分な距離をおいて、非常に大きな検出領域においてオブジェクトの姿勢を迅速に検出することができる。カメラを旋回することにより、カメラの再参照に起因する測定プロセスの遅延が発生することがなくなる。というのも、本発明では再参照を省略できるからである。したがって、空間内においてオブジェクトを高精度で位置決めするための本発明の方法およびシステムは、加工速度が高速であることを特徴とする。]
权利要求:
請求項1 空間内において少なくとも1つのオブジェクトを産業用ロボットによって最終姿勢に高精度で位置決めするための方法において、前記オブジェクトを位置決めするために、・所定のポジショニングに位置調整することができる第1の産業用ロボット(11)と、・3次元の空間座標系で校正され、既知の第1の位置(Pa)に既知の方向に位置決めされた第1の光学的撮像装置(1a)と、・前記空間座標系で校正され、既知の第2の位置(Pb)に既知の方向で位置決めされた、少なくとも1つの第2の光学的撮像装置(1b)とを使用し、前記第1の光学的撮像装置(1a)は、・所定の第1の視界(8a)内で画像を撮像するための光学的校正された第1のカメラ(2a)と、・前記第1の視界(8a)を位置調整するために前記第1のカメラ(2a)を方向決めするための第1の駆動ユニット(3a)と、・前記第1のカメラ(2a)の角度方向を高精度で検出して、前記空間座標系において前記第1の視界(8a)を求めるための、該空間座標系で校正された第1の角度測定ユニット(4a)とを有し、前記第2の光学的撮像装置(1b)は、・所定の第2の視界(8b)内で画像を撮像するための、光学的校正された第2のカメラ(2b)と、・前記第2の視界(8b)を位置調整するために前記第2のカメラ(2b)を方向決めするための第2の駆動ユニット(3b)と、・前記第2のカメラ(2b)の角度方向を高精度で検出して、前記空間座標系において前記第2の視界(8b)を求めるための、該空間座標系で校正された第2の角度測定ユニット(4b)とを有し、前記第1の位置(Pa)と前記第2の位置(Pb)との間隔は次のように設けられており、すなわち、前記第1の視界(8a)と前記第2の視界(8b)とが少なくとも部分的に重なり合うように、前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)によって前記少なくとも1つのオブジェクトの画像が3次元で撮像されるように設けられており、・光学的に検出可能な既知の第1の特徴的要素(13)を有する第1のオブジェクト(12)を、前記第1の産業用ロボット(11)によって把持公差以内で把持および保持するステップと、・前記第1の産業用ロボット(11)に対して、前記第1のオブジェクト(12)が前記空間座標系において該第1の産業用ロボット(11)のポジショニングの設定によって調整されるように前記把持公差を補正するための第1の調整量を求めるステップであって、前記第1の視界(8a)と前記第2の視界(8b)とが少なくとも部分的に重なり合うように、前記第1の産業用ロボット(11)の第1の調整ポジショニングに保持された前記第1のオブジェクト(12)の前記第1の特徴的要素(13)の少なくとも一部に向けて、前記第1のカメラ(2a)および前記第2のカメラ(2b)をそれぞれ前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によって方向決めするステップと、第1の撮像画像を撮像するステップと、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記第1の撮像画像と、前記第1のオブジェクト(12)にある前記第1の特徴的要素(13)の知識とから、前記第1の産業用ロボット(11)の前記第1の調整ポジショニングにおける前記空間座標系での該第1のオブジェクト(12)の姿勢を求めるステップと、前記第1の産業用ロボット(11)の前記第1の調整ポジショニングと、少なくとも、該第1の産業用ロボット(11)の第1の調整ポジショニングにおける前記第1のオブジェクト(12)の求められた姿勢とを使用して、前記第1の調整量を求めるステップとを実施するステップと、・前記第1のオブジェクト(12)を高精度で第1の最終姿勢に位置調整するステップであって、該第1のオブジェクト(12)が該第1の最終姿勢に所定の公差以内で達するまで、さらなる第1の撮像画像を撮像するステップと、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記さらなる第1の撮像画像と、前記第1のオブジェクト(12)にある前記第1の特徴的要素(13)の知識とから、前記空間座標系における該第1のオブジェクト(12)の実際の姿勢を求めるステップと、前記第1のオブジェクト(12)の実際の姿勢と前記第1の最終姿勢との姿勢差を計算するステップと、前記第1の産業用ロボット(11)の現在のポジショニングと、前記姿勢差に関連する量とから、前記第1の調整量も使用して、前記第1の産業用ロボット(11)の新たな目標ポジショニングを計算するステップと、前記第1の産業用ロボット(11)を前記新たな目標ポジショニングに位置調整するステップとを繰り返し行うことにより、前記第1のオブジェクト(12)を高精度で第1の最終姿勢に位置調整するステップとを有することを特徴とする方法。 請求項2 前記第1の産業用ロボット(11)によって前記第1のオブジェクト(12)を把持した後、前記第1の調整量を求めるために該第1の産業用ロボット(11)を前記第1の調整ポジショニングに位置調整する、請求項1記載の方法。 請求項3 前記第1のオブジェクト(12)が所定の公差以内で前記第1の最終姿勢に達するまで繰り返し行われる前記ステップの前に、・前記第1の調整量に基づいて、前記第1の調整ポジショニングから、前記第1のオブジェクト(12)が前記第1の最終姿勢に近い第1の近似姿勢に位置決めされるポジショニングに前記第1の産業用ロボット(11)を位置調整し、・前記第1の視界(8a)と前記第2の視界(8b)とが少なくとも部分的に重なり合うように、前記第1の近似姿勢に位置決めされた前記第1のオブジェクト(12)の前記第1の特徴的要素(13)の少なくとも一部に向けて、前記第1のカメラ(2a)および前記第2のカメラ(2b)をそれぞれ前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によって方向決めする、請求項1または2記載の方法。 請求項4 前記第1のオブジェクト(12)を前記第1の最終姿勢に高精度で位置調整する前に、・第2のオブジェクト(22)を第2の産業用ロボット(21)または手動で把持し、オブジェクトホルダ(24)に配置して前記空間座標系における第2の最終姿勢に位置決めする、請求項1から3までのいずれか1項記載の方法。 請求項5 ・前記第2のオブジェクト(22)が前記所定の第2の最終姿勢に高精度で位置決めされるように、前記オブジェクトホルダ(24)は強制センタリングが行われるように設けられている、請求項4記載の方法。 請求項6 ・前記第2のオブジェクト(22)は、光学的に検出可能な既知の第2の特徴的要素(23)を有し、前記第2のオブジェクト(22)を前記オブジェクトホルダ(24)に配置する前に、前記第1の視界(8a)と前記第2の視界(8b)とが少なくとも部分的に重なり合うように、前記第2のオブジェクト(22)の前記第2の特徴的要素(23)の少なくとも一部に向けて、前記第1のカメラ(2a)および前記第2のカメラ(2b)をそれぞれ前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によって方向決めし、第2の撮像画像を撮像し、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記第2の撮像画像と、前記第2のオブジェクト(22)にある前記第2の特徴的要素(23)の知識とから、前記空間座標系における該第2のオブジェクト(22)の第2の最終姿勢を求める、請求項4記載の方法。 請求項7 前記第1のオブジェクト(12)を前記第1の最終姿勢(Ea)に高精度で位置調整する前に、・光学的に検出可能な第2の特徴的要素(23)を有する第2のオブジェクト(22)を第2の産業用ロボット(21)によって把持公差以内で把持および保持し、・前記第2の産業用ロボット(21)を、前記第2のオブジェクト(22)が第2の最終姿勢になる該第2の産業用ロボット(21)の最終ポジショニングに位置調整し、・前記第1の視界(8a)と前記第2の視界(8b)とが少なくとも部分的に重なり合うように、前記第2のオブジェクト(22)の前記第2の特徴的要素(23)の少なくとも一部に向けて、前記第1のカメラ(2a)および前記第2のカメラ(2b)をそれぞれ前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によって方向決めし、第2の撮像画像を撮像し、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記第2のオブジェクト(22)の前記第2の特徴的要素(23)の知識とから、前記空間座標系における前記第2のオブジェクト(22)の第2の最終姿勢を求める、請求項1から3までのいずれか1項記載の方法。 請求項8 前記第1のオブジェクト(12)の前記第1の最終姿勢を、前記第2のオブジェクト(22)の第2の最終姿勢と、該第1のオブジェクト(12)と該第2のオブジェクト(22)との所定の相対姿勢とから計算する、請求項5から7までのいずれか1項記載の方法。 請求項9 前記第1のオブジェクト(12)を前記第1の最終姿勢に高精度で位置調整する前に、・光学的に検出可能な既知の第2の特徴的要素(23)を有する第2のオブジェクト(22)を第2の産業用ロボット(21)によって把持公差以内で把持および保持し、・前記第2の産業用ロボット(21)のポジショニングの設定によって前記第2のオブジェクト(22)が前記空間座標系において調整されるように前記第2の産業用ロボット(21)の前記把持公差を補正する第2の調整量を求め、該第2の調整量を求めるために、前記第1の視界と前記第2の視界とが少なくとも部分的に重なり合うように、前記第2の産業用ロボット(21)の第2の調整ポジショニングに保持される前記第2のオブジェクト(22)の前記第2の特徴的要素(23)の少なくとも一部に向けて、前記第1のカメラ(2a)および前記第2のカメラ(2b)をそれぞれ前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によって方向決めするステップと、第2の撮像画像を撮像するステップと、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記第2の撮像画像と、前記第2のオブジェクト(22)にある前記第2の特徴的要素(23)の知識とから、該第2の産業用ロボット(21)の第2の調整ポジショニングにおける前記第2のオブジェクト(22)の前記空間座標系における姿勢を求めるステップと、前記第2の産業用ロボット(21)の第2の調整ポジショニングと、少なくとも、該第2の産業用ロボット(21)の前記第2の調整ポジショニングにおける前記第2のオブジェクト(22)の求められた姿勢とを使用して、前記第2の調整量を求めるステップとを実施するステップと、・前記第2のオブジェクト(22)を第2の最終姿勢に高精度で位置調整するために、所定の公差以内で前記第2の最終姿勢に達するまで、さらなる第2の撮像画像を撮像するステップと、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記さらなる第2の撮像画像と、前記第2のオブジェクト(22)にある前記第2の特徴的要素(23)の知識とから、前記空間座標系における該第2のオブジェクト(22)の実際の姿勢を求めるステップと、前記第2のオブジェクト(22)の実際の姿勢と前記第2の最終姿勢との間の姿勢差を計算するステップと、前記第2の産業用ロボット(21)の現在のポジショニングと、前記姿勢差に関連する量とから、前記第2の調整量も使用して、該第2の産業用ロボット(21)の新たな目標ポジショニングを計算するステップと、前記第2の産業用ロボット(21)を前記新たな目標ポジショニングに位置調整するステップとを繰り返すステップとを実施する、請求項1から3までのいずれか1項記載の方法。 請求項10 前記第2の産業用ロボット(21)によって前記第2のオブジェクト(22)を把持した後、前記第2の調整量を求めるために該第2の産業用ロボット(21)を前記第2の調整ポジショニングに位置調整する、請求項9記載の方法。 請求項11 前記第2のオブジェクト(22)が所定の公差以内で前記第2の最終姿勢に達するまで繰り返し行われる前記ステップの前に、・前記第2の調整量に基づいて、前記第2の調整ポジショニングから、前記第2のオブジェクト(22)が前記第2の最終姿勢に近い第2の近似姿勢に位置決めされるポジショニングに前記第2の産業用ロボット(21)を位置調整し、・前記第1の視界(8a)と前記第2の視界(8b)とが少なくとも部分的に重なり合うように、前記第2の近似姿勢に位置決めされた前記第2のオブジェクト(22)の前記第2の特徴的要素(23)の少なくとも一部に向けて、前記第1のカメラ(2a)および前記第2のカメラ(2b)をそれぞれ前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によって方向決めする、請求項9または10記載の方法。 請求項12 ・加工ツールとして構成された第3のオブジェクト(32)を第3の産業用ロボット(31)によって保持公差以内で保持し、・前記第3の産業用ロボット(31)のポジショニングの設定によって前記空間座標系において前記加工ツール(32)が調整されるように位置調整されるように該第3の産業用ロボット(31)の把持公差を補正する第3の調整量を求め、前記第3の調整量を求めるために、・前記加工ツール(32)を前記第3の産業用ロボット(31)の第3の調整ポジショニングに保持し、前記第1の視界(8a)と前記第2の視界(8b)とが少なくとも部分的に重なり合うように、前記第1のカメラ(2a)および前記第2のカメラ(2b)をそれぞれ前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によって、前記加工ツール(32)または該加工ツール(32)に結合された該第3の産業用ロボット(31)の一部分に設けられた光学的に検出可能な既知の第3の特徴的要素(33)の少なくとも一部に向けて方向決めするステップと、・第3の撮像画像を撮像するステップと、・前記第1の光学的撮像装置(1a)第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記第3の撮像画像と、前記加工ツール(32)または該加工ツール(32)に結合された前記第3の産業用ロボット(31)の一部分に設けられた光学的に検出可能な既知の第3の特徴的要素(33)の知識とから、前記第3の産業用ロボット(31)の第3の調整ポジショニングにおける前記空間座標系における前記加工ツール(32)の姿勢を求めるステップと、・前記第3の産業用ロボット(31)の第3の調整ポジショニングと、少なくとも、該第3の産業用ロボット(31)の第3の調整ポジショニングにおける前記加工ツール(32)の求められた姿勢とを使用して、前記第3の調整量を求めるステップとを行う、請求項1から11までのいずれか1項記載の方法。 請求項13 前記加工ツール(32)が所定の公差以内で前記第3の最終姿勢に達するまで、・さらなる第3の撮像画像を撮像するステップと、・前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記さらなる第3の撮像画像と、前記第3の特徴的要素(33)の知識とから、前記空間座標系における前記加工ツール(32)の実際の姿勢を求めるステップと、・前記第3のオブジェクト(32)の実際の姿勢と前記第3の最終姿勢との姿勢差を計算するステップと、・前記第3の産業用ロボット(31)の現在のポジショニングと、前記姿勢差に関連する量とから、前記第3の調整量を使用して前記第3の産業用ロボット(31)の新たな目標ポジショニングを計算するステップと、・前記第3の産業用ロボット(31)を前記新たな目標ポジショニングに位置調整するステップとを繰り返し実施することにより、前記加工ツール(32)を高精度で前記第3の最終姿勢に位置調整する、請求項12記載の方法。 請求項14 前記姿勢差に関連する量を形成するために、前記姿勢差に1以下の係数を乗算する、請求項1から13までのいずれか1項記載の方法。 請求項15 ・前記特徴的要素(13;23;33)は基本的に、電子的なデータ処理装置によって処理されたモデルから既知であり、・電子的なデータ処理装置によって実施される画像処理により、前記モデルおよび/または前記撮像画像において前記特徴的要素(13;23;33)を同定し、前記モデルの前記特徴的要素(13;23;33)と、前記撮像画像の前記特徴的要素(13;23;33)とを対応付け、・撮像された前記特徴的要素(13;23;33)の位置であって、前記空間座標系において検出された該特徴的要素(13;23;33)の位置と、対応付けられた前記モデルの前記特徴的要素(13;23;33)および前記撮像画像の前記特徴的要素(13;23;33)とから、該空間座標系における前記オブジェクト(12;22;32)の姿勢を求める、請求項1から14までのいずれか1項記載の方法。 請求項16 撮像された前記特徴的要素(13;23;33)の相互間の相対姿勢を求め、基本的にモデルから既知である前記特徴的要素の相互間の相対姿勢と比較する、請求項15記載の方法。 請求項17 撮像された前記特徴的要素(13;23;33)の相互間の相対姿勢と前記モデルから基本的に既知である前記特徴的要素の相互間の相対姿勢との偏差の超過時に、エラーメッセージを出力する、請求項16記載の方法。 請求項18 前記エラーメッセージの場合、前記オブジェクト(12;22;32)を新たなオブジェクト(12;22;32)と交換する、請求項17記載の方法。 請求項19 前記モデルを、検出された前記オブジェクト(12;22;32)に適合する、請求項16または17記載の方法。 請求項20 ・適合された前記モデルが、前記空間座標系における前記最終姿勢を決定する、請求項19記載の方法。 請求項21 前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)はそれぞれ、・前記第1のカメラ(2a)および前記第2のカメラ(2b)が前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によってそれぞれ、前記空間座標系を基準として水平方向の傾斜軸(Ha;Hb)および垂直方向の鉛直軸(Va;Vb)を中心として方向決めすることができ、・前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によってそれぞれ、前記空間座標系における前記鉛直軸(Va;Vb)を中心とする水平方向の角度方向(αa;αb)と前記傾斜軸(Ha;Hb)を中心とする垂直方向の角度方向(βa;βb)とが検出されるように構成されている、請求項1から20までのいずれか1項記載の方法。 請求項22 前記水平方向の傾斜軸(Ha,Hb)と前記垂直方向の鉛直軸(Va;Vb)とは実質的に交差する、請求項21記載の方法。 請求項23 前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)はそれぞれ、・前記第1のカメラ(2a)の投影中心および前記第2のカメラ(2b)の投影中心がそれぞれ、前記水平方向の傾斜軸(Ha;Hb)と前記垂直方向の鉛直軸(Va,Vb)との交点に位置し、・前記第1のカメラ(2a)の位置および前記第2のカメラ(2b)の位置はそれぞれ、角度方向(αa,βa;αb,βb)に依存せずに前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)に結合され、前記空間座標系における前記姿勢が、前記第1のカメラ(2a)の位置および前記第2のカメラ(2b)の位置と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された該第1のカメラ(2a)の角度方向(αa,βa)および該第2のカメラ(2b)の角度方向(αb,βb)と、前記撮像画像と、前記特徴的要素(13;23;33)の知識とから求められるように構成されている、請求項22記載の方法。 請求項24 前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)はそれぞれ、・前記第1のカメラ(2a)の投影中心および前記第2のカメラ(2b)の投影中心が、前記水平方向の傾斜軸(Ha,Hb)と前記垂直方向の鉛直軸(Va,Vb)との交点の外側に位置し、・前記第1のカメラ(2a)の位置および前記第2のカメラ(2b)の位置が、前記交点からの該第1のカメラ(2a)の投影中心および該第2のカメラ(2b)の投影中心の所定の偏心率と、前記角度方向(αa,βa;αb,βb)と、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)とから求められ、・前記空間座標系における前記姿勢が、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1のカメラ(2a)の投影中心の偏心率および前記第2のカメラ(2b)の投影中心の偏心率と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された該第1のカメラ(2a)の角度方向および該第2のカメラ(2b)の角度方向と、前記撮像画像と、前記特徴的要素(12;22;32)の知識とから求められるように構成されている、請求項22記載の方法。 請求項25 少なくとも前記第1の光学的撮像装置(1a)は、前記第1のカメラ(2a)の第1の視界(8a)内で第1のパターン光(7a)を放出するように構成された第1の発光源(6a)を有し、前記第1の発光源(6a)は、前記第1の駆動ユニット(3a)によって前記第1のカメラ(2a)と一緒に方向決めされ、前記第1の発光源(6a)の角度方向は、前記空間座標系でキャリブレーションされた第1の角度測定ユニット(4a)によって高精度で検出され、前記撮像画像を撮像するステップにおいて、前記第1のパターン光(7a)が前記第2の光学的撮像装置(1b)の第2のカメラ(2b)の視界内に入るように、該第1のパターン光(7a)を前記第1の発光源(6a)から前記オブジェクト(12;22;32)に投影し、・前記空間座標系における前記オブジェクト(12;22;32)の姿勢を、さらに、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1の発光源(6a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記第1のパターン光(7a)を撮像した該第2のカメラ(2b)の撮像画像とから、三角測量によって求める、請求項1から24までのいずれか1項記載の方法。 請求項26 少なくとも前記第2の光学的撮像装置(1b)は、前記第2のカメラ(2b)の第2の視界(8b)内で第2のパターン光(7b)を放出するように構成された第2の発光源(6b)を有し、前記第2の発光源(6b)は前記第2のカメラ(2b)とともに、前記第2の駆動ユニット(3b)によって方向決め可能であり、前記第2の発光源(6b)の角度方向は、前記空間座標系においてキャリブレーションされた前記第2の角度測定ユニット(4b)によって高精度で検出され、前記撮像画像を撮像するステップにおいて、前記第2のパターン光(7b)が前記第1の光学的撮像装置(1a)の第1のカメラ(2a)の視界内に入るように該第2のパターン光(7b)を前記第2の発光源(6b)から前記オブジェクト(12;22;32)の特徴的要素(13;23;33)の少なくとも一部に投影し、前記空間座標系における前記オブジェクト(12;22;32)の姿勢を、さらに、前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第2の発光源(6b)の角度方向および前記第1のカメラ(2a)の角度方向と、前記第2のパターン光(7b)を撮像した該第1のカメラ(2a)の撮像画像と、前記オブジェクト(12;22;32)における前記特徴的要素(13;23;33)の知識とから、三角測量によって求める、請求項25記載の方法。 請求項27 既知の第3の位置(Pc)に既知の方向で配置された発光装置(1c)が設けられており、前記発光装置(1c)は、第3のパターン光(7c)を放出するように構成された第3の発光源(6c)を有し、前記第3の発光源(6c)は第3の駆動ユニット(3c)によって方向決め可能であり、前記第3の発光源(6c)の角度方向は、前記空間座標系でキャリブレーションされた第3の角度測定方向(4c)によって高精度で検出され、前記撮像画像を撮像するステップにおいて、前記第3のパターン光(7c)が前記第1の光学的撮像装置(1a)の第1のカメラ(2a)の視界内に入るように該第3のパターン光(7c)を前記第3の発光源(6c)から前記オブジェクト(12;22;32)に投影し、前記空間座標系における前記オブジェクト(12;22;32)の姿勢を、さらに、前記第1の光学的撮像装置(1a)の第1の位置(Pa)と、前記第1の角度測定ユニット(4a)によって検出された前記第1のカメラ(2a)の角度方向と、前記第3の角度測定ユニット(4c)によって検出された前記第3の発光源(6c)の角度方向と、前記第3のパターン光(7c)を撮像した前記第1のカメラ(2a)の撮像画像とから、三角測量によって求める、請求項1から26までのいずれか1項記載の方法。 請求項28 前記パターン光(7a;7b;7c)を、投影されるレーザ線として形成する、請求項25から27までのいずれか1項記載の方法。 請求項29 前記パターン光(7a;7b;7c)を、レーザ線として扇形に投影されるレーザ点として形成する、請求項25から27までのいずれか1項記載の方法。 請求項30 前記パターン光(7a;7b;7c)を、2次元で投影されるパターンとして、とりわけレーザラスタとして形成する、請求項25から27までのいずれか1項記載の方法。 請求項31 少なくとも前記第1の光学的撮像装置(1a)は第1のレーザ測距器(5a)を有し、前記第1のレーザ測距器(5a)は前記第1のカメラ(2a)とともに、前記第1の駆動ユニット(3a)によって方向決め可能であり、前記第1のレーザ測距器(5a)の角度方向は、前記空間座標系においてキャリブレーションされた第1の角度測定ユニット(4a)によって高精度で検出される、請求項1から30までのいずれか1項記載の方法。 請求項32 前記第1のレーザ測距器(5a)によって、位置固定されたターゲットマーク(T)に照準することにより、前記空間座標系における前記第1の光学的撮像装置(1a)の第1の位置(Pa)を検出する、請求項31記載の方法。 請求項33 さらに、前記オブジェクト(12;22;32)にある前記特徴的要素(13;23;33)に照準することにより、前記空間座標系における前記オブジェクト(12;22;32)の姿勢を求める、請求項31または32記載の方法。 請求項34 空間内において少なくとも1つのオブジェクトを産業用ロボットによって最終姿勢に高精度で位置決めするためのシステムにおいて、・所定のポジショニングに位置調整可能な第1の産業用ロボット(11)と、・3次元の空間座標系でキャリブレーションされ、既知の第1の位置(Pa)に既知の方向で位置決めされた第1の光学的撮像装置(1a)と、・前記空間座標系でキャリブレーションされ、既知の第2の位置(Pb)に既知の方向で位置決めされた第2の光学的撮像装置(1b)と、・画像を処理するように構成されたデータ処理装置を有する制御装置(9)とを有し、前記第1の光学的撮像装置(1a)は、・所定の第1の視界(8a)内で画像を撮像するための光学的キャリブレーションされた第1のカメラ(2a)と、・前記第1の視界(8a)を位置調整するために前記第1のカメラ(2a)を方向決めするための第1の駆動ユニット(3a)と、・前記第1のカメラ(2a)の角度方向を高精度で検出するための第1の角度測定ユニット(4a)であって、前記空間座標系において前記第1の視界(8a)が求められるように前記空間座標系でキャリブレーションされた第1の角度測定ユニット(4a)とを有し、前記第2の光学的撮像装置(1b)は、・所定の第2の視界(8b)内で画像を撮像するための光学的キャリブレーションされた第2のカメラ(2b)と、・前記第2の視界(8b)を位置調整するために前記第2のカメラ(2b)を方向決めするための第2の駆動ユニット(3b)と、・前記第2のカメラ(2b)の角度方向を高精度で検出するための第2の角度測定ユニット(4b)であって、前記空間座標系において前記第2の視界(8b)が求められるように前記空間座標系でキャリブレーションされた第2の角度測定ユニット(4b)とを有し、前記第1の位置(Pa)と前記第2の位置(Pb)との間隔は、前記オブジェクトの3次元の画像を前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)によって、少なくとも部分的に重なり合う前記第1の視界(8a)および前記第2の視界(8b)によって撮像できるように設けられており、前記制御装置(9)は、前記第1の産業用ロボット(11)と、前記第1の光学的撮像装置(1a)と、前記第2の光学的撮像装置(1b)とにデータ接続されており、・前記制御装置(9)に、前記第1のカメラ(2a)および前記第2のカメラ(2b)によって撮像された撮像画像が供給され、・前記制御装置(9)に、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向が供給され、・前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)は、前記第1のカメラ(2a)および前記第2のカメラ(2b)を方向決めするように前記制御装置(9)によって駆動制御され、・前記第1の産業用ロボット(11)は、前記制御装置(9)によって設定されたポジショニングに位置調整され、前記制御装置(9)および該制御装置(9)のデータ処理装置は、次のように構成されており、すなわち、・該制御装置(9)に既知である光学的に検出可能な第1の特徴的要素(13)を有する第1のオブジェクト(12)が前記第1の産業用ロボット(11)によって把持公差以内で把持および保持され、・前記第1の産業用ロボット(11)のポジショニングの設定によって前記第1のオブジェクト(12)が空間座標系において調整されるように位置調整されるように該第1の産業用ロボット(11)の把持公差を補正する第1の調整量が該制御装置(9)によって求められるように構成されており、前記制御装置(9)によって前記第1の調整量を求めるために、・前記第1の視界(8a)と前記第2の視界(8b)とが少なくとも部分的に重なり合うように、前記第1の産業用ロボット(11)の第1の調整ポジショニングで保持された前記第1のオブジェクト(12)の第1の特徴的要素(13)の少なくとも一部に向けて、前記第1のカメラ(2a)および前記第2のカメラ(2b)をそれぞれ前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によって方向決めするステップと、・第1の撮像画像を撮像するステップと、・前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記第1の撮像画像と、前記第1のオブジェクト(12)における第1の特徴的要素(13)の知識とから、前記第1の産業用ロボット(11)の第1の調整ポジショニングにおける前記第1のオブジェクト(12)の姿勢を前記空間座標系において求めるステップと、・前記第1の産業用ロボット(11)の前記第1の調整ポジショニングと、少なくとも、該第1の産業用ロボット(11)の第1の調整ポジショニングにおける前記第1のオブジェクト(12)の求められた姿勢とを使用して、前記第1の調整量を求めるステップとを実施するステップとが行われ、前記第1のオブジェクト(12)が所定の公差以内で第1の最終姿勢に達するまで、・さらなる第1の撮像画像を撮像するステップと、・前記第1の光学的撮像装置(1a)の第1の位置(Pa)および前記第2の光学的撮像装置(1b)の第2の位置(Pb)と、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向と、前記さらなる第1の撮像画像と、前記第1のオブジェクト(12)における前記第1の特徴的要素(13)の知識とから、前記空間座標系における該第1のオブジェクト(12)の実際の姿勢を求めるステップと、・前記第1のオブジェクト(12)の実際の姿勢と前記第1の最終姿勢との姿勢差を計算するステップと、・前記第1の調整量を使用して、前記第1の産業用ロボット(11)の現在のポジショニングと、前記姿勢差に関連する量とから、該第1の産業用ロボット(11)の新たな目標ポジショニングを計算するステップと、・前記第1の産業用ロボット(11)を前記新たな目標ポジショニングに位置調整するステップとを繰り返し実施することにより、該第1のオブジェクト(12)は前記制御装置(9)によって高精度で前記第1の最終姿勢に位置調整されることを特徴とする、システム。 請求項35 空間内において少なくとも1つのオブジェクトを産業用ロボットによって最終姿勢に高精度で位置決めするためのシステムにおいて、・所定のポジショニングに位置調整可能な第1の産業用ロボット(11)と、・3次元の空間座標系でキャリブレーションされ、既知の第1の位置(Pa)に既知の方向で位置決めされた第1の光学的撮像装置(1a)と、・前記空間座標系でキャリブレーションされ、既知の第2の位置(Pb)に既知の方向で位置決めされた第2の光学的撮像装置(1b)と、・画像を処理するように構成されたデータ処理装置を有する制御装置(9)とを有し、前記第1の光学的撮像装置(1a)は、・所定の第1の視界(8a)内で画像を撮像するための光学的キャリブレーションされた第1のカメラ(2a)と、・前記第1の視界(8a)を位置調整するために前記第1のカメラ(2a)を方向決めするための第1の駆動ユニット(3a)と、・前記第1のカメラ(2a)の角度方向を高精度で検出するための第1の角度測定ユニット(4a)であって、前記空間座標系において前記第1の視界(8a)が求められるように前記空間座標系でキャリブレーションされた第1の角度測定ユニット(4a)とを有し、前記第2の光学的撮像装置(1b)は、・所定の第2の視界(8b)内で画像を撮像するための光学的キャリブレーションされた第2のカメラ(2b)と、・前記第2の視界(8b)を位置調整するために前記第2のカメラ(2b)を方向決めするための第2の駆動ユニット(3b)と、・前記第2のカメラ(2b)の角度方向を高精度で検出するための第2の角度測定ユニット(4b)であって、前記空間座標系において前記第2の視界(8b)が求められるように前記空間座標系でキャリブレーションされた第2の角度測定ユニット(4b)とを有し、前記第1の位置(Pa)と前記第2の位置(Pb)との間隔は、前記オブジェクトの3次元の画像を前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)によって、少なくとも部分的に重なり合う前記第1の視界(8a)および前記第2の視界(8b)によって撮像できるように設けられており、前記制御装置(9)は、前記第1の産業用ロボット(11)と、前記第1の光学的撮像装置(1a)と、前記第2の光学的撮像装置(1b)とにデータ接続されており、・前記制御装置(9)に、前記第1のカメラ(2a)および前記第2のカメラ(2b)によって撮像された撮像画像が供給され、・前記制御装置(9)に、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向が供給され、・前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)は、前記第1のカメラ(2a)および前記第2のカメラ(2b)を方向決めするように前記制御装置(9)によって駆動制御され、・前記第1の産業用ロボット(11)は、前記制御装置(9)によって設定されたポジショニングに位置調整され、前記制御装置(9)および該制御装置(9)のデータ処理装置は、請求項1,2,3,14〜33のいずれか1項記載の方法を実施するように構成されていることを特徴とするシステム。 請求項36 空間内において少なくとも1つのオブジェクトを産業用ロボットによって最終姿勢に高精度で位置決めするためのシステムにおいて、・所定のポジショニングに位置調整可能な第1の産業用ロボット(11)と、・所定のポジショニングに位置調整可能な第2の産業用ロボット(21)と、・3次元の空間座標系でキャリブレーションされ、既知の第1の位置(Pa)に既知の方向で位置決めされた第1の光学的撮像装置(1a)と、・前記空間座標系でキャリブレーションされ、既知の第2の位置(Pb)に既知の方向で位置決めされた第2の光学的撮像装置(1b)と、・画像を処理するように構成されたデータ処理装置を有する制御装置(9)とを有し、前記第1の光学的撮像装置(1a)は、・所定の第1の視界(8a)内で画像を撮像するための光学的キャリブレーションされた第1のカメラ(2a)と、・前記第1の視界(8a)を位置調整するために前記第1のカメラ(2a)を方向決めするための第1の駆動ユニット(3a)と、・前記第1のカメラ(2a)の角度方向を高精度で検出するための第1の角度測定ユニット(4a)であって、前記空間座標系において前記第1の視界(8a)が求められるように前記空間座標系でキャリブレーションされた第1の角度測定ユニット(4a)とを有し、前記第2の光学的撮像装置(1b)は、・所定の第2の視界(8b)内で画像を撮像するための光学的キャリブレーションされた第2のカメラ(2b)と、・前記第2の視界(8b)を位置調整するために前記第2のカメラ(2b)を方向決めするための第2の駆動ユニット(3b)と、・前記第2のカメラ(2b)の角度方向を高精度で検出するための第2の角度測定ユニット(4b)であって、前記空間座標系において前記第2の視界(8b)が求められるように前記空間座標系でキャリブレーションされた第2の角度測定ユニット(4b)とを有し、前記第1の位置(Pa)と前記第2の位置(Pb)との間隔は、前記オブジェクトの3次元の画像を前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)によって、少なくとも部分的に重なり合う前記第1の視界(8a)および前記第2の視界(8b)によって撮像できるように設けられており、前記制御装置(9)は、前記第1の産業用ロボット(11)と、前記第2の産業用ロボット(21)と、前記第1の光学的撮像装置(1a)と、前記第2の光学的撮像装置(1b)とにデータ接続されており、・前記制御装置(9)に、前記第1のカメラ(2a)および前記第2のカメラ(2b)によって撮像された撮像画像が供給され、・前記制御装置(9)に、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向が供給され、・前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)は、前記第1のカメラ(2a)および前記第2のカメラ(2b)を方向決めするように前記制御装置(9)によって駆動制御され、・前記第1の産業用ロボット(11)および前記第2の産業用ロボット(21)は、前記制御装置(9)によって設定されたポジショニングに位置調整され、前記制御装置(9)および該制御装置(9)のデータ処理装置は、請求項4から11までのいずれか1項記載の方法を実施するように構成されていることを特徴とするシステム。 請求項37 空間内において少なくとも1つのオブジェクトを産業用ロボットによって最終姿勢に高精度で位置決めするためのシステムにおいて、・所定のポジショニングに位置調整可能な第1の産業用ロボット(11)と、・所定のポジショニングに位置調整可能な第2の産業用ロボット(21)と、・所定のポジショニングに位置調整可能であり、加工ツールとして構成された第3のオブジェクト(32)を保持公差以内で保持する第3の産業用ロボット(31)と、・3次元の空間座標系でキャリブレーションされ、既知の第1の位置(Pa)に既知の方向で位置決めされた第1の光学的撮像装置(1a)と、・前記空間座標系でキャリブレーションされ、既知の第2の位置(Pb)に既知の方向で位置決めされた第2の光学的撮像装置(1b)と、・画像を処理するように構成されたデータ処理装置を有する制御装置(9)とを有し、前記加工ツール(32)、または該加工ツール(32)に結合された前記第3の産業用ロボット(31)の部分は、光学的に検出可能な既知の第3の特徴的要素(33)を有し、前記第1の光学的撮像装置(1a)は、・所定の第1の視界(8a)内で画像を撮像するための光学的キャリブレーションされた第1のカメラ(2a)と、・前記第1の視界(8a)を位置調整するために前記第1のカメラ(2a)を方向決めするための第1の駆動ユニット(3a)と、・前記第1のカメラ(2a)の角度方向を高精度で検出するための第1の角度測定ユニット(4a)であって、前記空間座標系において前記第1の視界(8a)が求められるように前記空間座標系でキャリブレーションされた第1の角度測定ユニット(4a)とを有し、前記第2の光学的撮像装置(1b)は、・所定の第2の視界(8b)内で画像を撮像するための光学的キャリブレーションされた第2のカメラ(2b)と、・前記第2の視界(8b)を位置調整するために前記第2のカメラ(2b)を方向決めするための第2の駆動ユニット(3b)と、・前記第2のカメラ(2b)の角度方向を高精度で検出するための第2の角度測定ユニット(4b)であって、前記空間座標系において前記第2の視界(8b)が求められるように前記空間座標系でキャリブレーションされた第2の角度測定ユニット(4b)とを有し、前記第1の位置(Pa)と前記第2の位置(Pb)との間隔は、前記オブジェクトの3次元の画像を前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)によって、少なくとも部分的に重なり合う前記第1の視界(8a)および前記第2の視界(8b)によって撮像できるように設けられており、前記制御装置(9)は、前記第1の産業用ロボット(11)と、前記第2の産業用ロボット(21)と、前記第3の産業用ロボット(31)と、前記第1の光学的撮像装置(1a)と、前記第2の光学的撮像装置(1b)とにデータ接続されており、・前記制御装置(9)に、前記第1のカメラ(2a)および前記第2のカメラ(2b)によって撮像された撮像画像が供給され、・前記制御装置(9)に、前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によって検出された前記第1のカメラ(2a)の角度方向および前記第2のカメラ(2b)の角度方向が供給され、・前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)は、前記第1のカメラ(2a)および前記第2のカメラ(2b)を方向決めするように前記制御装置(9)によって駆動制御され、・前記第1の産業用ロボット(11)、前記第2の産業用ロボット(21)および前記第3の産業用ロボット(31)は、前記制御装置(9)によって設定されたポジショニングに位置調整され、前記制御装置(9)は、請求項12または13記載の方法を実施するように構成されていることを特徴とするシステム。 請求項38 前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)はそれぞれ次のように構成されている、すなわち、・前記第1のカメラ(2a)および前記第2のカメラ(2b)は前記第1の駆動ユニット(3a)および前記第2の駆動ユニット(3b)によってそれぞれ、前記空間座標系を基準とする水平方向の傾斜軸(Ha;Hb)および垂直方向の鉛直軸(Va;Vb)を中心として方向決め可能であり、・前記第1の角度測定ユニット(4a)および前記第2の角度測定ユニット(4b)によってそれぞれ、前記空間座標系における前記鉛直軸(Va;Vb)を中心とする水平方向の角度方向(αa;αb)と前記傾斜軸(Ha;Hb)を中心とする垂直方向の角度方向(βa;βb)とが検出されるように構成されている、請求項34から37までのいずれか1項記載のシステム。 請求項39 前記水平方向の傾斜軸(Ha;Hb)と前記垂直方向の鉛直軸(Va;Vb)とは実質的に交差する、請求項38記載のシステム。 請求項40 前記第1の光学的撮像装置(1a)および前記第2の光学的撮像装置(1b)はそれぞれビデオセオドライトとして構成されている、請求項39記載のシステム。
类似技术:
公开号 | 公开日 | 专利标题 US20170280132A1|2017-09-28|System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices Pradeep et al.2014|Calibrating a multi-arm multi-sensor robot: A bundle adjustment approach JP6426725B2|2018-11-28|System and method for tracking the location of a movable target object US20170370700A1|2017-12-28|Multi-dimensional measuring system with measuring instrument having 360° angular working range DE112014003227B4|2018-03-29|Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera US9457470B2|2016-10-04|Robot system and method for calibration US9517560B2|2016-12-13|Robot system and calibration method of the robot system JP6000579B2|2016-09-28|情報処理装置、情報処理方法 EP2646771B1|2015-05-06|Robotisches vermessungsinstrument und verfahren zur automatisierten autokollimation eines teleskops eines vermessungsinstruments mit einem autokollimationsziel US9604363B2|2017-03-28|Object pickup device and method for picking up object EP2697604B1|2015-03-04|Vermessungssystem zur bestimmung von 3d-koordinaten einer objektoberfläche EP2446300B1|2016-10-12|Tracking-verfahren und messsystem mit lasertracker DE69637413T2|2009-01-22|Kompositdetektionssystem für roboter US6816755B2|2004-11-09|Method and apparatus for single camera 3D vision guided robotics US9400170B2|2016-07-26|Automatic measurement of dimensional data within an acceptance region by a laser tracker US10107618B2|2018-10-23|Coordinate measuring machine US9020240B2|2015-04-28|Method and surveying system for noncontact coordinate measurement on an object surface JP5615416B2|2014-10-29|レーザトラッカによる寸法データの自動計測 US10126116B2|2018-11-13|Registration of three-dimensional coordinates measured on interior and exterior portions of an object EP1215017B1|2007-04-04|Robot teaching apparatus US7324217B2|2008-01-29|Device and method for measuring components JP2013130426A|2013-07-04|情報処理装置、情報処理装置の制御方法、およびプログラム US4796200A|1989-01-03|Target based determination of robot and sensor alignment CN106457562B|2019-09-13|用于校准机器人的方法和机器人系统 US8180487B1|2012-05-15|Calibrated vision based robotic system
同族专利:
公开号 | 公开日 US8346392B2|2013-01-01| AU2008342721B2|2011-09-08| EP2075096A1|2009-07-01| JP5290324B2|2013-09-18| EP2227356B1|2016-11-16| AU2008342721A1|2009-07-09| CA2710669C|2013-02-12| CN101909828A|2010-12-08| EP2227356A1|2010-09-15| US20100274390A1|2010-10-28| CN101909828B|2012-06-13| WO2009083452A1|2009-07-09| CA2710669A1|2009-07-09|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题 JPS60217418A|1984-04-11|1985-10-31|Mitsubishi Electric Corp|Tracking control system of articulated robot| JPS61175805A|1985-01-31|1986-08-07|Matsushita Electric Ind Co Ltd|Robot operation teaching device| JPH03161223A|1989-11-17|1991-07-11|Kawasaki Heavy Ind Ltd|Fitting of work| JPH1133962A|1997-07-18|1999-02-09|Yaskawa Electric Corp|Calibration of robot three-dimensional position sensor. Method and device.|WO2020050135A1|2018-09-06|2020-03-12|東芝デベロップメントエンジニアリング株式会社|画像処理装置、プロジェクタ制御システム、カメラ制御システム|US4396945A|1981-08-19|1983-08-02|Solid Photography Inc.|Method of sensing the position and orientation of elements in space| US4851905A|1984-10-12|1989-07-25|Diffracto Ltd.|Vision target fixture construction| US5374830A|1984-10-12|1994-12-20|Sensor Adaptive Machines, Inc.|Target based determination of robot and sensor alignment| US4796200A|1986-12-09|1989-01-03|Diffracto Ltd.|Target based determination of robot and sensor alignment| DE3741632A1|1987-12-05|1989-06-22|Noell Gmbh|Verfahren und vorrichtung zum erkennen und ansteuern eines raumzieles| US5380978A|1991-07-12|1995-01-10|Pryor; Timothy R.|Method and apparatus for assembly of car bodies and other 3-dimensional objects| JP3394322B2|1994-05-19|2003-04-07|ファナック株式会社|視覚センサを用いた座標系設定方法| SE515374C2|1999-10-29|2001-07-23|Abb Flexible Automation As|Method and apparatus for determining an object's coordinates and orientation in a reference coordinate system| JP2003117861A|2001-10-15|2003-04-23|Denso Corp|ロボットの位置補正システム| EP1472052A2|2002-01-31|2004-11-03|Braintech Canada, Inc.|Method and apparatus for single camera 3d vision guided robotics| EP1431705A1|2002-12-22|2004-06-23|VMT Bildverarbeitungssysteme GmbH|Einrichtung und Verfahren zur Bestimmung der Position eines Werkstücks unter Verwendung einer Schwenkneigekopfkamera| JP4167940B2|2003-05-29|2008-10-22|ファナック株式会社|ロボットシステム| WO2007004983A1|2005-07-05|2007-01-11|Hexagon Metrology Ab|Method for welding work pieces| JP4143103B2|2006-12-20|2008-09-03|本田技研工業株式会社|移動装置、ならびにその制御システム、制御プログラムおよび監督システム|DE102006031580A1|2006-07-03|2008-01-17|Faro Technologies, Inc., Lake Mary|Verfahren und Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs| AU2009240105B2|2008-04-22|2011-12-22|Leica Geosystems Ag|Measuring method for an articulated-arm coordinate measuring machine| US8155802B1|2008-07-11|2012-04-10|Lockheed Martin Corporation|Optical flow navigation system| US9551575B2|2009-03-25|2017-01-24|Faro Technologies, Inc.|Laser scanner having a multi-color light source and real-time color receiver| DE102009015920B4|2009-03-25|2014-11-20|Faro Technologies, Inc.|Device for optically scanning and measuring an environment| EP2255930A1|2009-05-27|2010-12-01|Leica Geosystems AG|Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum| EP2269783A1|2009-06-30|2011-01-05|Leica Geosystems AG|Kalibrierungsverfahren für ein Messsystem| DE102009057101A1|2009-11-20|2011-05-26|Faro Technologies, Inc., Lake Mary|Device for optically scanning and measuring an environment| US9113023B2|2009-11-20|2015-08-18|Faro Technologies, Inc.|Three-dimensional scanner with spectroscopic energy detector| US9529083B2|2009-11-20|2016-12-27|Faro Technologies, Inc.|Three-dimensional scanner with enhanced spectroscopic energy detector| US9210288B2|2009-11-20|2015-12-08|Faro Technologies, Inc.|Three-dimensional scanner with dichroic beam splitters to capture a variety of signals| US8630314B2|2010-01-11|2014-01-14|Faro Technologies, Inc.|Method and apparatus for synchronizing measurements taken by multiple metrology devices| JP2013539541A|2010-09-08|2013-10-24|ファロテクノロジーズインコーポレーテッド|Laser scanner or laser tracking device having a projector| US8832954B2|2010-01-20|2014-09-16|Faro Technologies, Inc.|Coordinate measurement machines with removable accessories| US8898919B2|2010-01-20|2014-12-02|Faro Technologies, Inc.|Coordinate measurement machine with distance meter used to establish frame of reference| US9607239B2|2010-01-20|2017-03-28|Faro Technologies, Inc.|Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations| US8677643B2|2010-01-20|2014-03-25|Faro Technologies, Inc.|Coordinate measurement machines with removable accessories| US9628775B2|2010-01-20|2017-04-18|Faro Technologies, Inc.|Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations| CN102782442A|2010-01-20|2012-11-14|法罗技术股份有限公司|具有被照亮的探针端的坐标测量机及操作方法| US8615893B2|2010-01-20|2013-12-31|Faro Technologies, Inc.|Portable articulated arm coordinate measuring machine having integrated software controls| DE112011100300T5|2010-01-20|2013-03-07|Faro Technologies, Inc.|Integriertes Temperaturmesssystem für Teile| US8875409B2|2010-01-20|2014-11-04|Faro Technologies, Inc.|Coordinate measurement machines with removable accessories| US9163922B2|2010-01-20|2015-10-20|Faro Technologies, Inc.|Coordinate measurement machine with distance meter and camera to determine dimensions within camera images| JP5615382B2|2010-01-20|2014-10-29|ファロ テクノロジーズ インコーポレーテッド|マルチバスアーム技術を用いた可搬型の関節アーム座標測定機| US9879976B2|2010-01-20|2018-01-30|Faro Technologies, Inc.|Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features| JP2011167815A|2010-02-19|2011-09-01|Ihi Corp|物体認識ロボットシステム| DE102010020925B4|2010-05-10|2014-02-27|Faro Technologies, Inc.|Verfahren zum optischen Abtasten und Vermessen einer Umgebung| US8467992B1|2010-09-15|2013-06-18|The Boeing Company|Vision based location and measurement device and methods| JP5713634B2|2010-11-10|2015-05-07|矢崎総業株式会社|Component position measurement method| US9168654B2|2010-11-16|2015-10-27|Faro Technologies, Inc.|Coordinate measuring machines with dual layer arm| DE102011003539A1|2011-02-02|2012-08-02|Kuka Roboter Gmbh|Verfahren zum Referenzieren einer Antriebsstellung wenigstens eines elektrischen Antriebs| EP2511656A1|2011-04-14|2012-10-17|Hexagon Technology Center GmbH|Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche| JP2012254518A|2011-05-16|2012-12-27|Seiko Epson Corp|ロボット制御システム、ロボットシステム及びプログラム| JP5561260B2|2011-09-15|2014-07-30|株式会社安川電機|ロボットシステム及び撮像方法| DE102012100609A1|2012-01-25|2013-07-25|Faro Technologies, Inc.|Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung| JP6004809B2|2012-03-13|2016-10-12|キヤノン株式会社|位置姿勢推定装置、情報処理装置、情報処理方法| US8997362B2|2012-07-17|2015-04-07|Faro Technologies, Inc.|Portable articulated arm coordinate measuring machine with optical communications bus| JP5642738B2|2012-07-26|2014-12-17|ファナック株式会社|バラ積みされた物品をロボットで取出す装置及び方法| JP6228120B2|2012-08-02|2017-11-08|富士機械製造株式会社|Working machine equipped with an articulated robot and electrical component mounting machine| US9269146B2|2012-08-23|2016-02-23|Microsoft Technology Licensing, Llc|Target object angle determination using multiple cameras| DE102012109481A1|2012-10-05|2014-04-10|Faro Technologies, Inc.|Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung| US9513107B2|2012-10-05|2016-12-06|Faro Technologies, Inc.|Registration calculation between three-dimensionalscans based on two-dimensionalscan data from a 3D scanner| US10067231B2|2012-10-05|2018-09-04|Faro Technologies, Inc.|Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner| CN103017726B|2012-12-19|2014-12-31|华南理工大学|一种直角坐标方式的机器人位姿误差测量系统及方法| CN103112008B|2013-01-29|2015-09-02|上海智周自动化工程有限公司|用于地板切割的双视觉机器人自动定位和搬运方法| US9491448B2|2013-04-01|2016-11-08|The Boeing Company|Laser videogrammetry| CN103278091B|2013-06-07|2016-01-20|上海发那科机器人有限公司|一种用于智能装配的空间定位方法| US20150134099A1|2013-11-08|2015-05-14|Startechno Co., Ltd.|Workpiece machining device with calibration function and workpiece machining device| US9594250B2|2013-12-18|2017-03-14|Hexagon Metrology, Inc.|Ultra-portable coordinate measurement machine| CN103707300A|2013-12-20|2014-04-09|上海理工大学|机械手装置| CN103743318B|2013-12-30|2017-08-25|深圳市华星光电技术有限公司|探针膜厚测量机坐标补正方法及装置| JP2015199155A|2014-04-07|2015-11-12|キヤノン株式会社|情報処理装置および情報処理方法、プログラム| US9713870B2|2014-05-30|2017-07-25|GM Global Technology Operations LLC|System and method for locating vehicle components relative to each other| CN104036424B|2014-06-23|2017-09-26|电子科技大学|基于二维码的零件快速选配方法及系统| US9269143B2|2014-07-10|2016-02-23|Trimble Navigation Limited|Camera on a rover surveying system| CN104175330B|2014-08-14|2016-04-20|四川大学|一种基于瞄准机制的六关节工业机器人实时伺服跟踪装置| CN104476044A|2014-11-21|2015-04-01|安徽省库仑动力自动化科技有限公司|一种用于大面积焊接的自动行走焊接机器人| WO2016100702A1|2014-12-17|2016-06-23|Norgren Automation Solutions, Llc|Apparatus and method for detecting multiple workpieces| JP2016221645A|2015-06-02|2016-12-28|セイコーエプソン株式会社|ロボット、ロボット制御装置およびロボットシステム| DE102015122844A1|2015-12-27|2017-06-29|Faro Technologies, Inc.|3D-Messvorrichtung mit Batteriepack| US10556305B2|2016-02-03|2020-02-11|The Boeing Company|Aligning parts using multi-part scanning and feature based coordinate systems| DE102016205519A1|2016-04-04|2017-10-05|Bayerische Motoren Werke Aktiengesellschaft|Mobiles Messsystem zum dreidimensionalen optischen Vermessen von Fahrzeugen und Fahrzeugteilen| US10635758B2|2016-07-15|2020-04-28|Fastbrick Ip Pty Ltd|Brick/block laying machine incorporated in a vehicle| JP2018144145A|2017-03-03|2018-09-20|オムロン株式会社|制御システム、設定装置、設定方法、および設定プログラム| DE102017126495A1|2017-11-10|2019-05-16|Perpetual Mobile Gmbh|Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters| US10436590B2|2017-11-10|2019-10-08|AnkobotSmart Technologies Co., Ltd.|Localization system and method, and robot using the same| CN108413873A|2018-04-17|2018-08-17|华南理工大学|一种手机外壳在线尺寸测量与表面缺陷检测系统及其方法| EP3587044A1|2018-06-28|2020-01-01|Sick Ag|Verfahren zum greifen von objekten in einem suchbereich, steuereinheit und positioniersystem| WO2020142495A1|2018-12-31|2020-07-09|Abb Schweiz Ag|Multiple robot and/or positioner object learning system and method| US20200262057A1|2019-02-15|2020-08-20|GM Global Technology Operations LLC|Component assembly system| US20200262079A1|2019-02-15|2020-08-20|GM Global Technology Operations LLC|Coordinated robot to robot component assembly| US20200262078A1|2019-02-15|2020-08-20|GM Global Technology Operations LLC|Fixtureless component assembly|
法律状态:
2010-12-29| RD04| Notification of resignation of power of attorney|Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20101228 | 2012-05-07| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120502 | 2012-08-03| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120802 | 2012-08-10| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120809 | 2012-08-31| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120830 | 2012-09-07| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120906 | 2013-04-26| TRDD| Decision of grant or rejection written| 2013-05-08| A01| Written decision to grant a patent or to grant a registration (utility model)|Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130507 | 2013-06-13| A61| First payment of annual fees (during grant procedure)|Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130605 | 2013-06-14| R150| Certificate of patent or registration of utility model|Ref document number: 5290324 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 | 2016-06-14| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 | 2017-06-13| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 | 2018-06-12| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 | 2019-06-11| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 | 2020-06-14| LAPS| Cancellation because of no payment of annual fees|
优先权:
[返回顶部]
申请号 | 申请日 | 专利标题 相关专利
Sulfonates, polymers, resist compositions and patterning process
Washing machine
Washing machine
Device for fixture finishing and tension adjusting of membrane
Structure for Equipping Band in a Plane Cathode Ray Tube
Process for preparation of 7 alpha-carboxyl 9, 11-epoxy steroids and intermediates useful therein an
国家/地区
|